998 resultados para 617.9 Tecnica operatoria e campi speciali della chirurgia
Resumo:
La tesi ha avuto come obiettivo la valutazione dell’effetto dell’uso di fonti proteiche alternative (alghe ed insetti) nell’alimentazione del broiler sui parametri qualitativi ed il profilo ossidativo della carne di petto di pollo. A tale scopo, 1000 polli maschi ROSS 308 sono stati suddivisi in 8 gruppi sperimentali in funzione della percentuale di inclusione nel mangime di farina di microalghe ed insetti, e della presenza o meno dell’enzima chitinasi: controllo (dieta commerciale), controllo con enzima, dieta 1 (insetti 9%), dieta 2 (insetti 18%), dieta 3 (insetti 9% + chitinasi), dieta 4 (insetti 18% + chitinasi), dieta 5 (microalghe 3%), dieta 6 (microalghe 6%). Un totale di 120 petti di pollo (15/gruppo) sono stati destinati all’analisi del pH, colore, drip e cooking loss, sforzo di taglio, nonché del livello di ossidazione di grassi e proteine della carne. I risultati ottenuti hanno evidenziato come, a prescindere dal tipo di fonte proteica e dalla percentuale di inclusione, il pH della carne ha mostrato valori significativamente inferiori in tutti i gruppi trattati rispetto al controllo, senza però esercitare effetti negativi sulla qualità della carne. La capacità di ritenzione idrica (valutata tramite drip e cooking loss), lo sforzo di taglio e il livello di ossidazione dei lipidi e delle proteine non sono stati infatti influenzati negativamente dal trattamento dietetico. Tuttavia, il colore della carne è stato modificato dall’alimentazione, con particolare riferimento all’indice di giallo (b*) che è risultato significativamente superiore nei gruppi sperimentali alimentati con microalghe rispetto al controllo e a quelli alimentati con farina di insetti. Tale colorazione potrebbe essere gradita in quei mercati in cui vi è una consolidata abitudine a questa pigmentazione della carne. Ulteriori studi saranno effettuati per valutare l’effetto delle fonti proteiche alternative sulla qualità sensoriale e l’attitudine del consumatore verso il colore del prodotto.
Resumo:
Lo scopo del progetto è valorizzare lo scarto rappresentato da bucce e semi (o sansa di pomodoro) che si produce per la trasformazione industriale dei pomodori. In questa sperimentazione la sansa di pomodoro è stata essiccata con un prototipo funzionante con un flusso di aria non riscaldat,a valutandone l’efficacia nell’allungare la shelf life del sottoprodotto, limitando la degradazione termica del licopene. Sono state effettuate determinazioni dell’attività dell'acqua, della concentrazione di licopene e del profilo in composti volatili (mediante tecnica SPME-GC-MS) sia sul sottoprodotto fresco che su quello essiccato e poi conservato sottovuoto e al buio per diversi tempi: 0, 60, 80, 110 giorni. L'estrazione del licopene è avvenuta mediante l’utilizzo di DES (Deep Eutectic Solvents) con miscela di etil acetato/etil lattato 30/70 v/v: un approccio più sostenibile in linea con i principi della “Green Chemistry”. Grazie alla collaborazione con il gruppo di ricerca del Dipartimento di Nutrizione, Scienze degli Alimenti e Gastronomia dell’Università di Barcellona, si è proceduto anche ad un’analisi cromatografica (HPLC-DAD) per la determinazione qualitativa e quantitativa del beta-carotene, del licopene e dei suoi cis isomeri. L’alta deperibilità di questo sottoprodotto ne causa una rapidissima degradazione microbica. Una migliorata conservabilità permetterebbe il suo uso differito nel tempo, poiché la campagna del pomodoro avviene durante i pochi mesi estivi. Questo ne impedisce l’immediato uso durante le campagne di lavorazione di altri prodotti alimentari, che potrebbero così essere arricchiti degli antiossidanti e i pigmenti naturalmente presenti nelle bucce del pomodoro. L’orizzonte temporale di questo studio è stato scelto per comprendere se la stabilità del semilavorato essiccato potesse essere compatibile con la campagna olivicola (ottobre-novembre) per la produzione di oli co-franti arricchiti della frazione antiossidante liposolubile presente nel sottoprodotto.
Resumo:
Il Ground Penetrating Radar (GPR) è una tecnica di indagine non distruttiva che si basa sulla teoria della propagazione delle onde elettromagnetiche. Questa tecnologia venne inizialmente utilizzata per indagini geologiche, ma più recentemente è stata introdotta anche per lo studio di altri materiali quali calcestruzzo, legno e asfalto. Questa tecnologia investigativa può essere utilizzata per varie problematiche : • Localizzazione di oggetti all’interno del materiale inglobante • Determinazione dello spessore dello strato del materiale oggetto di studio (calcestruzzo, asfalto, terreno, legno) • Proprietà del materiale, inclusa umidità ed eventuale presenza di vuoti Nella fase iniziale di questo lavoro di tesi sono stati studiati i principi fisici di funzionamento, la metodologia di elaborazione dei dati restituiti dallo strumento e di interpretazione dei risultati. Successivamente, è stato posto l’obbiettivo di verificare l’applicabilità del georadar nel rintracciare i ferri di armatura nelle travi da ponte. Quest’ultime sono spesso realizzate tramite l’impiego della precompressione con cavi post-tesi che implica la presenza di guaine con all’interno i relativi trefoli di tensionamento. Per simulare tali condizioni sono state realizzate in laboratorio delle “travi campione” con guaine in differente materiale, con differente posizionamento e con differente tecnologia di posa, in modo tale da permettere di studiare diversi scenari. Di seguito le differenti tipologie di travi : - Trave con guaine metalliche ; - Trave con guaine plastiche ; - Trave con interruzioni in polistirolo lungo le guaine (per simulare la corrosione delle stesse); - Travi con trefoli inseriti all’interno delle guaine (per studiarne l’influenza sul segnale).
Resumo:
Circa 2500 anni fa, a Magnesia, l’uomo scopriva la magnetite, un minerale del ferro che ha un contenuto di metallo particolarmente alto. Fu così che l’umanità venne a contatto per la prima volta, più o meno consapevolmente, con gli effetti dei campi magnetici. Già il filosofo greco Talete di Mileto nel VI secolo a.C. descrisse gli effetti di tali pietre, ma l’umanità non smise di esserne affascinata. Un esempio astronomicamente noto di campo magnetico su ampia scala è quello terrestre: il nostro pianeta si può pensare come un grosso magnete con un campo di BE ≈ 0.3...0.5G, che tra le altre cose ci protegge dalle particelle ad altissima energia intrappolandole nelle cosiddette fasce di Van Allen. Vi sono poi campi magnetici molto più intensi, a partire da quelli generati in altri pianeti, come Giove, o di stelle e altri corpi celesti particolarmente densi, che possono raggiungere i 10^15G. Ma i campi magnetici sono largamente diffusi anche in tutto lo spazio interstellare e intergalattico, dove hanno valori molto inferiori, che sfiorano i pochi μG. Come si può intuire, un così ampio spettro di valori si traduce in un’altrettanto ricca gamma di metodi di rilevazione. In particolare, in questo elaborato, ci concentreremo soprattutto sui metodi di studio dei campi magnetici meno intensi, la cui conoscenza si basa sulle proprietà osservabili della radiazione di sincrotrone, principalmente indi- viduabili dai dati radio. Dedichiamo quindi un breve capitolo alla derivazione dello spettro della radiazione suddetta (Capitolo 2), preceduto da un accenno alle proprietà energetiche dei plasmi magnetizzati (Capitolo 1). Ci occupiamo infine per l’intero Capitolo 3 di alcuni tra i più diffusi metodi diagnostici, preferendo, come già anticipa- to quelli che analizzano gli spettri prodotti da elettroni relativistici in moto in campi magnetici, ma attraversando comunque gli effetti dei plasmi magnetizzati sulla propagazione della luce e sulla separazione delle righe spettrali.
Resumo:
L'obiettivo dell'elaborato è quello di studiare le proprietà spettrali di un'operatore di Markov associato ad una passeggiata aleatoria ipoellittica dipendente da un parametro h, sufficientemente piccolo, e costruita su una varietà liscia finito-dimensionale, connessa, compatta e senza bordo. Nell'affrontare tale problema si utilizza una tecnica di Rothschild e Stein, basata sulla costruzione di un'algebra di Lie graduata. Si ottiene in questo modo una corrispondenza tra la varietà e l'algebra di Lie, e si utilizza la struttura che quest'ultima presenta per studiare il problema su di essa. Il risultato principale a cui si vuole giungere tramite l'analisi spettale dell'operatore di Markov è una stima, uniforme rispetto ad h, per il tasso di convergenza di tale passeggiata aleatoria verso l'equilibrio, al tendere del numero dei passi all'infinito. Tramite l'approccio utilizzato si giunge inoltre ad un risultato di convergenza della catena di Markov ad una diffusione ipoellittica continua al tendere di h a 0.
Resumo:
Lo scopo di questa Tesi di Laurea è quello di dimostrare il Teorema di Connettività per un sistema di Hörmander di campi vettoriali, il quale ci fornisce una condizione sufficiente alla connessione di un aperto di R^N tramite curve integrali a tratti dei campi vettoriali stessi e dei loro opposti, e presentarne alcune applicazioni. Nel primo Capitolo daremo i prerequisiti necessari alla trattazione degli altri tre, con particolare attenzione ad un Lemma che mette in relazione le curve integrali del commutatore di m campi vettoriali con la composizione di un opportuno numero di mappe flusso dei campi vettoriali che costituiscono il commutatore. Il secondo Capitolo è interamente dedicato alla dimostrazione del Teorema di Connettività e all'analisi della definizione delle curve subunitarie in un aperto rispetto ad una famiglia di campi vettoriali X, dette curve X-subunitarie. Nel terzo Capitolo forniremo una introduzione alla distanza di Carnot-Carathéodory, detta anche distanza di X-controllo, arrivando a dimostrare il notevolissimo Teorema di Chow-Rashewskii, il quale ci fornisce, sotto le ipotesi del Teorema di Connettività, una stima tra la metrica Euclidea e la distanza di X-controllo, mediante due disuguaglianze. Queste ultime implicano anche una equivalenza tra la topologia indotta dalla distanza di X-controllo e la topologia Euclidea. Nel quarto e ultimo Capitolo, indagheremo gli insiemi di propagazione tramite curve integrali dei campi vettoriali in X e tramite curve X-subunitarie. Utilizzando la definizione di invarianza di un insieme rispetto ad un campo vettoriale e avvalendosi del Teorema di Nagumo-Bony, dimostreremo che: la chiusura dei punti raggiungibili, partendo da un punto P in un aperto fissato, tramite curve integrali a tratti dei campi vettoriali in X e dei loro opposti, è uguale alla chiusura dei punti raggiungibili, sempre partendo da P, tramite un particolare sottoinsieme di curve X-subunitarie C^1 a tratti.
Resumo:
Oggigiorno, il termine Digital Twin è ampiamente diffuso. Questo concetto si riferisce a un paradigma utilizzato per la prima volta nel 1970, in una missione spaziale statunitense. Un Digital Twin è un gemello digitale, un modello che simula e raccoglie i dati di un oggetto o essere vivente del mondo reale. I Digital Twin sono sviluppati in molti settori e aziende. Tra queste troviamo Fameccanica, la quale ha costruito dei modelli digitali dei propri macchinari per migliorare la formazione dei manutentori e la produzione, Chevron che ha ridotto i costi di manutenzione, General Elettric che associa a ogni turbina venduta un Digital Twin per mantenerla controllata grazie a dei sensori posti sulla turbina stessa. Risulta importante utilizzare i Digital Twin in ambito medico per tracciare la salute del paziente, simulare eventuali interventi e gestire gli ospedali. In particolare, le strutture ospedaliere dell’Emilia Romagna non sono ottimizzate dal punto di vista economico. Infatti, la sala operatoria rappresenta la principale spesa che AUSL Romagna deve affrontare ma, attualmente, l’organizzazione degli interventi non è efficiente. Pertanto, in seguito a problemi sollevati dai referenti di AUSL Romagna, è stato deciso di realizzare un progetto per la tesi riguardante questo ambito. Per risolvere i problemi riscontrati si realizzerà un prototipo di un Digital Twin delle sale operatorie per poter minimizzare i costi. Grazie alla raccolta, in real-time, dei dati memorizzati nel gemello digitale, si possono pianificare al meglio gli interventi in base alla disponibilità delle sale operatorie. Il progetto assume dimensioni considerevoli per questo motivo è stato suddiviso in tre moduli: una componente che si occupa di standardizzare i dati, un Digital Twin che mantiene i dati relativi allo stato attuale delle sale operatorie e un’interfaccia utente che si occupa di visualizzare i dati ai medici.
Resumo:
La tematica al centro della tesi è la valutazione della stabilità del versante roccioso in cui si colloca la tomba Lattanzi, facente parte della necropoli Norchia (VT), e la proposta preliminare di interventi a basso impatto per la conservazione del sito. Le attività svolte sono riportate di seguito: - inquadramento geografico, storico ed archeologico della necropoli di Norchia e della tomba Lattanzi; - inquadramento geologico e geomorfologico sviluppato consultando la carta geologica d’Italia in scala 1:50.000 e carte tematiche riguardanti la zona di interesse, comprese quelle del progetto IFFI (Inventario dei Fenomeni Franosi in Italia); - inquadramento sismico dell’area, condotto a partire dai dati forniti dall’INGV per il comune di Viterbo; - inquadramento meteo-climatico del comune di Viterbo; - inquadramento topografico attraverso nuvola di punti generata da rilievo laser scanner; - caratterizzazione fisica e meccanica del materiale roccioso tramite prove di laboratorio; - caratterizzazione delle discontinuità tramite rilievi in situ; - classificazione tecnica dell’ammasso; - creazione di un modello geotecnico del sottosuolo; - analisi cinematica effettuata tramite il programma Dips®; - analisi con il metodo dell’equilibrio limite e analisi numerica effettuata tramite il programma Plaxis®; - elaborazione dei risultati ottenuti e proposte di intervento quali: Intervento con ancoraggi passivi e sottofondazione al piede della tomba con una muratura in conci di tufo. Le analisi svolte, seppur semplificate, consentono di definire i possibili fenomeni di instabilità del versante nelle condizioni attuali e, in una ottica di conservazione preventiva, di effettuare scelte di gestione del sito che evitino interventi impattanti.
Resumo:
Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.
Resumo:
Questa tesi elabora un sistema di filtraggio delle pseudodistanze calcolate da un ricevitore GPS, al fine di ottenere un miglior posizionamento. Infatti, dopo aver analizzato e quindi filtrato i dati in ingresso tramite l’impiego delle misure di fase, si può ottenere una precisione nell’ordine dei centimetri. La tecnica di filtraggio prende il nome di carrier-smoothing e permette di selezionare le misure di pseudorange mediante le misure di ADR (Accumulated Delta Range) grazie all’applicazione di una struttura a filtro complementare. Per svolgere questo tipo di lavoro, non è stato necessario l’utilizzo di un ricevitore GPS fisico, ma è stato realizzato, nell’ambiente Matlab/Simulink, un simulatore GNSS (Global Navigation Satellite System) che sostanzialmente emula quello che farebbe un ricevitore.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Nel corso degli ultimi decenni sono stati eseguiti diversi esperimenti volti alla misura della lunghezza di scattering neutrone-neutrone, ma alcuni risultati si sono rivelati discordanti e ad oggi essa è ancora nota con insufficiente precisione, a causa della complessità del problema sia dal punto di vista teorico che sperimentale. Una migliore conoscenza di questa grandezza può fornire importanti informazioni sulla natura dei nucleoni e sulle loro interazioni. È stato quindi proposto un esperimento volto alla misura della lunghezza di scattering neutrone-neutrone al CERN di Ginevra, presso la facility n_TOF, sfruttando gli aggiornamenti apportati alle aree sperimentali e alla sorgente di neutroni negli ultimi anni. L'esperimento prevede di utilizzare la reazione di breakup del deuterio tramite l'impiego di un target attivo, composto da un bersaglio di stilbene deuterato (stilbene-d12) che funge anche da materiale scintillatore. Per verificare la fattibilità dell'esperimento sono stati eseguiti dei test preliminari presso la facility del National Center for Scientific Research (NCSR) Demokritos, irradiando il target attivo con neutroni e raggi γ a diverse energie e utilizzando due tipi diversi di sensori fotomoltiplicatori al silicio (SiPM) nel sistema di rivelazione. In questa tesi sono stati analizzati dei segnali provenienti da questi test, valutando la possibilità di eseguire discriminazione n/γ sfruttando la tecnica della Pulse Shape Discrimination (PSD).
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto del trattamento con campi elettrici pulsati sulla funzionalità delle proteine e sul livello di ossidazione lipidica e proteica di filetti di branzino (Dicentrarchus labrax) durante 12 giorni di conservazione refrigerata. A tale scopo, un totale di 50 filetti è stato sottoposto a salagione mediante salamoia contenente il 5% di NaCl per 24 ore e successivamente diviso in 2 gruppi sperimentali (n=25/gruppo): CONT, filetti non sottoposti a trattamento e PEF, filetti trattati con campi elettrici pulsati aventi intensità di 0,6 kV/cm, ampiezza degli impulsi di 10 μs per un tempo totale di trattamento pari a 10 s. I filetti sono stati confezionati in atmosfera protettiva (20% di CO2 e 80% di N2) e conservati a temperatura di refrigerazione per i 12 giorni successivi. Nel complesso, i risultati ottenuti suggeriscono come il trattamento PEF non abbia esercitato un effetto né migliorativo né peggiorativo sulla funzionalità delle proteine, determinata tramite analisi della solubilità, risultato piuttosto inatteso data la potenzialità del PEF di migliorare la funzionalità proteica. Si può ipotizzare che il processo di salatura a cui sono stati sottoposti i campioni possa avere in qualche modo mascherato un possibile effetto positivo del trattamento a causa della solubilizzazione delle proteine avvenuta già in fase di salatura. Inoltre, nonostante il PEF possa innescare fenomeni ossidativi a carico della matrice lipidica e proteica, in questo studio non sono state osservate modificazioni, suggerendo come il trattamento non abbia alterato la stabilità ossidativa dei filetti. In conclusione, i risultati ottenuti nel presente studio sono da considerarsi positivi, in quanto è possibile evincere come il trattamento effettuato abbia consentito di migliorare le rese di processo, senza però influenzare la stabilità ossidativa di lipidi e proteine, lasciando quindi inalterata la funzionalità delle stesse.
Resumo:
Dopo una prima parte dove vengono illustrate le funzioni e gli organi principali dell'OIV, approfondendone gli scopi e i ruoli, l'elaborato analizza alcune delle risoluzioni enologiche più interessanti emanate nel 2020 e nel 2021 dall'organizzazione. La prima risoluzione che viene approfondita è la OIV-OENO-631-2020 "Rassegna delle pratiche per la riduzione delle dosi di SO2 in vinificazione". Vengono individuati sei principali punti d'intervento in cui è possibile, tramite azioni a monte, evitare che divengano necessarie dosi di solforosa eccessive o sostanziose durante tutto il corso del processo produttivo, dalla campagna alla cantina fino alla bottiglia, al fine di correggere appunto "errori" in passaggi precedenti. Segue la risoluzione OIV-OENO-643-2020: "Monografia sulle sfere adsorbenti in stirene-divinilbenzene". Questa monografia porta all'attenzione una nuova tecnica per la riduzione e eliminazione dei difetti aromatici di terra-muffa legati direttamente alla geosmina. Buona parte della monografia tratta metodologie analitiche sulla gestione delle sfere in cantina, necessitando queste di trattamenti di precondizionamento prima dell'utilizzo e rinnovamento una volta terminato. La tecnica è molto interessante; non presenta però selettività nei confronti della molecola: ne consegue che una sua applicazione è un rischio calcolato. L'ultima risoluzione che viene approfondita è la OIV-OENO 581a-2021 "Trattamento del vino con acido fumarico per l'inibizione della fermentazione malolattica". In questa risoluzione viene introdotto l'utilizzo dell'acido fumarico nelle produzioni alimentari e, nel caso della produzione di vino, l'utilizzo per contrastare i batteri responsabili della fermentazione malolattica.
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di valutare l’effetto di diverse modalità di affumicatura sulla funzionalità della frazione proteica di filetti di salmoni norvegesi, valutata tramite la determinazione della solubilità e dell’ossidazione delle proteine. A tale scopo, 60 filetti di salmone dal peso omogeneo di circa 600g sono stati sottoposti a salagione e successivamente suddivisi in 3 gruppi sperimentali in funzione del processo di affumicatura (n=20/gruppo): ad aria a 20°C (AR-20), ad azoto a 20°C (AZ-20) e a 5°C (AZ-5). Al termine dei trattamenti tutti i filetti sono stati confezionati sottovuoto, conservati in cella frigorifera e sottoposti alle determinazioni analitiche a 5 diversi tempi di campionamento, per un totale di 17 giorni di conservazione. Dai dati ottenuti si evince come la tecnica di affumicatura commerciale (AR-20) determini, nel complesso, una riduzione della solubilità totale delle proteine, presumibilmente dovuta all’innesco di fenomeni ossidativi che hanno causato un accumulo di composti carbonilici, prevalentemente riscontrabile al termine della conservazione. L’affumicatura con azoto ha fatto invece registrare un miglioramento della funzionalità proteica a prescindere dalla temperatura impiegata, se paragonata all’affumicatura commerciale. A discapito di quanto atteso, l’affumicatura con azoto a 5°C non ha determinato un miglioramento in termini di solubilità ed ossidazione proteica, se paragonato alla controparte affumicata a 20°C; infatti i campioni appartenenti al gruppo AZ-20 hanno mostrato valori di solubilità proteica più elevati congiuntamente ad un contenuto di carbonili significativamente ridotto rispetto agli altri gruppi sperimentali. Alla luce di questi aspetti, ulteriori studi sono necessari al fine di confermare i risultati ottenuti ed approfondire l’effetto delle diverse modalità di affumicatura sulle proprietà funzionali e tecnologiche dei filetti di salmone.