999 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

50.00% 50.00%

Publicador:

Resumo:

La ricerca, di carattere esplorativo, prende spunto dal dibattito internazionale, sviluppatosi sul finire dello scorso secolo, sulla necessità di innovare il sistema educativo, in ottica di lifelong-learning, e favorire l’acquisizione delle competenze richieste nel XXI secolo. Le diverse indicazioni sollecitano una scuola intesa come Civic-center in grado di riconoscere gli apprendimenti extra-scolastici, con spazi di apprendimento innovativi funzionali a didattiche learner-centred. A circa trent’anni dalla Dichiarazione di Salamanca riteniamo necessario interrogarsi se queste innovazioni garantiscano l’inclusione e il successo formativo di tutti. La ricerca si articola in quattro studi di caso relativi a due scuole secondarie di secondo grado innovative italiane e due finlandesi. Si propone di comprendere sulla base delle percezioni di studenti, insegnanti, dirigenti se tale modello di scuola favorisca anche l’inclusione e il benessere di tutti gli studenti. Dall’analisi dei risultati sembra che, secondo le percezioni di coloro che hanno partecipato alla ricerca, le scuole siano riuscite a far coesistere innovazione e inclusione. In particolare, l’utilizzo di spazi di apprendimento innovativi e didattiche learner-centred all’interno di una scuola aperta al territorio in grado di riconoscere le competenze extra-scolastiche, sembrano favorire effettivamente l’inclusione di tutti gli studenti. Nonostante gli aspetti innovativi, restano tuttavia presenti all’interno delle scuole analizzate ancora diverse criticità che non consentono una piena inclusione for all

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Background Il trapianto polmonare rappresenta l'unica soluzione percorribile per l'insufficienza respiratoria end-stage. La principale limitante ad un suo impiego è rappresentata dalla scarsità di polmoni idonei. In questo contesto si colloca il progetto di ricondizionamento ex-vivo. L'implementazione risulta possibile attraverso il ricondizionamento di organi cosiddetti “marginali” o giudicati inizialmente non idonei al trapianto e da donatori a cuore fermo (Donor after Cardiac Death – DCD). Scopo Lo scopo principale del progetto è quello di analizzare i risultati a breve e medio termine del trapianto polmonare effettuato impiegando polmoni sottoposti a procedura di ricondizionamento ex-vivo in due centri trapianti di polmone a basso volume. Materiali e Metodi I dati sono stati raccolti retrospettivamente (da Giugno 2013 per quanto riguarda l’ISMETT e dal 2014 quelli dell’ Ospedale S. Orsola-Malpighi) e in maniera prospettica dal 2019. Risultati Sommando i dati relativi ad entrambi i centri, dal 2013 sono stati eseguiti un totale di 26 procedure di riperfusione. Sei volte i polmoni sono stati giudicati idonei al trapianto al termine con 5 trapianti doppi e un trapianto singolo sinistro. I risultati in termine di sopravvivenza a medio termine sono risultati sovrapponibili a quelli disponibili in letteratura, tuttavia è stato registrato un alto tasso di PGD (Primary Graft Disfunction) di grado 3, da imputare alla patologia di base del ricevente (ipertensione polmonare), che per protocollo di istituto rimane con supporto cardio-respiratorio (ECMO) dopo il trapianto. Conclusioni L’EVLP si conferma in centri di piccolo e medio volume un metodo sicuro ed efficace per implementare in numero di polmoni idonei al trapianto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Introduzione: La presentazione podalica complica il 3-4% delle gravidanze singole a termine. Sebbene il parto vaginale sia possibile, gli studi in letteratura hanno riportato un aumento del rischio di mortalità e morbilità fetale. Di conseguenza nel mondo il numero di tagli cesarei eseguiti per presentazione podalica è alto. Il rivolgimento per manovre esterne (RME) è una procedura ostetrica sicura che permette il passaggio del feto dalla presentazione podalica a quella cefalica, riducendo il numero dei tagli cesarei. L’angolo di progressione della parte presentata (AoP) è un parametro ecografico descritto in letteratura per la valutazione della progressione della parte presentata attraverso il canale del parto ed è stato recentemente studiato nelle gravidanze con presentazione podalica del feto. Obiettivi: L’obiettivo primario è valutare la correlazione tra l’AoP e il successo del RME. L’obiettivo secondario è verificare se esiste correlazione tra parametri anamnestici ed ecografici e la riuscita del RME. Materiali e metodi: È stato condotto uno studio osservazione prospettico monocentrico, sono state reclutate previo consenso informato 54 pazienti afferenti presso l’Ospedale Maggiore di Bologna con gravidanza singola dopo le 36 settimane e feto in presentazione podalica tra gennaio 2020 e giugno 2023. Risultati: La percentuale di RME riusciti è stata del 48,2%, il 53,7% delle donne ha partorito mediante taglio cesareo. Non abbiamo trovato una correlazione tra AoP e successo del rivolgimento. Tra le altre variabili analizzate l’unica correlata al successo del RME è la quantità di liquido amniotico Conclusioni: Non abbiamo trovato una correlazione tra AOP e successo del RME. Come descritto in letteratura l’unico parametro ecografico che è risultato associato al successo del RME è la quantità di liquido amniotico. Dato il disegno dello studio e la scarsa numerosità del campione sono necessari ulteriori studi per confermare i risultati.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le galassie passive sono sistemi dominati da popolazioni stellari vecchie, non mostrano tracce di formazione stellare (spettri compatibili con assenza di righe in emissione e caratterizzati da righe in assorbimento), e ci sono evidenze osservative che indicano che le galassie passive abbiano iniziato ad assemblare la loro massa stellare a z. Gli spettri delle galassie passive conservano traccia dei meccanismi fisici ed evolutivi della loro popolazione stellare. Laddove si hanno a disposizione spettri di buona qualità, ovvero che abbiano un rapporto segnale-rumore elevato, l’informazione contenuta in tali spettri può essere dedotta dalla misura dell’intensità di alcune righe in assorbimento. Burstein et al. (1984) hanno costruito un insieme di indici spettroscopici, chiamato sistema di indici di Lick, i quali misurano l’intensità delle principali righe in assorbimento (nella regione di lunghezze d’onda ottiche tra 4000-6000 Å), in termini di larghezza equivalente. in questa tesi è stato adottato il metodo degli indici di Lick per stimare i parametri evolutivi di un campione di galassie passive. Gli obiettivi principali di questa tesi sono due: 1.) studiare l’evoluzione col redshift dei parametri di età, metallicità totale e abbondanze relative di elementi α rispetto al ferro di un campione di galassie estratto spettroscopicamente dalla SDDS (Moresco et al., 2011). L’obiettivo finale è quello di dedurre informazioni sulla storia di formazione stellare delle galassie del campione. 2.) realizzare una simulazione per valutare la possibilità di misurare gli indici di Lick negli spettri di galassie passive che verranno osservate con la missione futura Euclid. Da questo studio è emerso un chiaro andamento evolutivo del campione in linea con quello previsto dallo scenario evolutivo del mass-downsizing, per il quale la SFH di una popolazione stellare è fortemente vincolata dalla massa della popolazione stessa, nel senso che al crescere della massa la formazione delle galassie passive si colloca in epoche progressivamente più remote, e l’assemblaggio della loro massa stellare avviene in tempi scala via via inferiori. Dalla simulazione è emerso un risultato molto importante che deriva dalla robustezza delle misure del D4000 e riguarda la possibilità di determinare il redshift di galassie a z ≥ 1.5 con Euclid.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La struttura di un ospedale è notevolmente complessa nella sua organizzazione e conduzione, ed è per di più sollecitata a continue trasformazioni di carattere tecnologico ed organizzativo. Pertanto è essenziale, in una struttura sanitaria, il ruolo svolto dall’Ingegneria Clinica, che è quello dell’applicazione dei metodi e delle competenze specifiche proprie dell’ingegneria all’organizzazione, alla gestione e all’uso sicuro ed appropriato della strumentazione biomedica. Il seguente elaborato tratta le verifiche di sicurezza delle apparecchiature elettromedicali (EM) con una particolare attenzione agli aspetti normativi che le contraddistinguono e al ruolo dell’ingegnere clinico. Parlare di sicurezza per le tecnologie biomediche, significa garantire l’utilizzo delle stesse in assenza di rischi per l’utilizzatore e per il paziente, perciò il concetto di rischio è analizzato accuratamente. Oltre alla manutenzione correttiva è compito dell’ingegnere clinico programmare strategie di manutenzione preventiva per ottimizzare la durata fisiologica degli apparecchi EM e garantirne la qualità delle prestazioni erogate a lungo termine. L’utilizzo o il semplice invecchiamento di una qualsiasi apparecchiatura ne provoca infatti l’usura dei materiali e la deriva delle caratteristiche, aumentando la probabilità di guasto ed avaria. Pertanto la definizione di procedure di verifica elettrica periodica diventa fondamentale per l’individuazione di gran parte di quelle situazioni di compromissione della sicurezza che sono causa di danni e incidenti. Il loro scopo è quello di accertarsi che un’apparecchiatura abbia mantenuto nel tempo le caratteristiche di sicurezza dichiarate dal produttore e certificate dalla marcatura di conformità CE. Per completare l’iter di verifica di sicurezza e definirne il livello minimo accettabile è essenziale eseguire, oltre alle verifiche elettriche, le verifiche funzionali per valutare l’efficacia delle singole funzioni e prestazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi si pone l'obiettivo di analizzare e approfondire il principio dei lavori virtuali, un importante strumento per la ricerca delle condizioni di equilibrio di un sistema meccanico. L'intera trattazione si svolge nell'ambito della meccanica classica e in un primo momento l'analisi si concentra in ambito statico, successivamente verrà ampliata in ambito dinamico, fino ad enunciare il principio di D'Alembert. Tale principio permette di ricondurre un qualsiasi problema di dinamica ad un equivalente problema di statica, fornendo un metodo generale per lo studio del moto di un qualunque sistema meccanico. La tesi si conclude con un approfondimento storico, in cui si evidenziano le tappe salienti e le personalità matematiche che hanno contribuito all'enunciazione ultima dei due principi citati.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La presente tesi è incentrata nello studio di differenti metodologie per la stima dell'attrito aerodinamico, concentrandosi in particolare modo nella tecnica ottica Oil Film Interferometry (OFI). Scopo principale della tesi è implementare sperimentalmente tale metodo nella galleria del vento CICLoPE e confrontare i risultati ottenuti con quelli derivanti dalle perdite di carico; i valori risultano esser tra loro confrontabili entro un margine di differenza percentuale contenuto. I risultati mostrano un andamento ragionevole al variare del numero di Reynolds, nonostante si discostino di qualche punto percentuale dalle curve provenienti dalla letteratura scientifica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel seguente elaborato è stato sviluppato un metodo di validazione per dispositivi di misura delle tensioni residue mediante la tecnica dell'hole drilling. Esso si basa sul confronto tra tensioni residue ottenute per via teorica e sperimentale su un provino soggetto a carico imposto. Inizialmente si è proceduto attraverso lo studio della normativa di riferimento ASTM E837-20. In essa viene definito il metodo sperimentale di esecuzione dei test di hole drilling e di calcolo delle tensioni residue. In seguito è stata progettata un'attrezzatura di prova in grado di indurre un gradiente di tensione noto nello spessore del provino sollecitato. L'attrezzatura di prova in questione è stata verificata sia mediante calcoli numerici, che mediante software di simulazione agli elementi finiti. La fase di prototipazione seguente ha consentito di realizzare l'attrezzatura necessaria per l'esecuzione dei test sperimentali. Le forature sono state effettuate prima su provini scarichi, al solo scopo di scongiurare la presenza di tensioni residue e, in seguito, su provini soggetti a momento flettente noto. Le deformazioni ottenute tramite le letture degli estensimetri sono state impiegate per il calcolo delle tensioni secondo normativa ASTM E837-20. infine è stato possibile valutare l'efficacia del metodo paragonando tali risultati con quelli teorici.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro di tesi si è posto l'obiettivo di studiare il comportamento fluidodinamico di un reattore agitato meccanicamente, scale-down di un digestore anaerobico per la produzione di biogas, attraverso tecniche di diagnostica ottica. Le tecniche utilizzate sono state la Particle Image Velocimetry, PIV, e la Planar Laser Induced Fluorescence, PLIF. Le prove sono iniziate utilizzando acqua all’interno del reattore e sono proseguite utilizzando una soluzione di acqua e Carbometilcellulosa (CMC) a concentrazione di CMC progressivamente crescente per aumentare la viscosità apparente della soluzione non newtoniana con lo scopo di simulare il più realisticamente possibile la viscosità del contenuto reale del digestore. Tutte le diverse soluzioni sono state indagate per diverse velocità e diversi sensi di rotazione. Le prove di diagnostica ottica sono state progressivamente affiancate da prove al reometro di campioni di soluzione per il calcolo della viscosità apparente. La PIV ha fornito la misura del campo di moto di un piano, è stato scelto di analizzare un piano verticale. Il metodo di diagnostica ottica ho previsto l’utilizzo di quattro componenti: una sezione per il test otticamente trasparente contenente la soluzione inseminata con piccole particelle di tracciante (particelle di argento e vetro cavo) che seguono il flusso, una sorgente di illuminazione pulsata (laser), un dispositivo di registrazione (una telecamera digitale ad alta definizione) ed un software per la cross-correlazione delle immagini acquisite (DynamicStudio). La PLIF è stata implementata per lo studio del tempo caratteristico di miscelazione nel reattore. La strumentazione utilizzata è stata la stessa della PIV con un tracciante diverso a base di Rodhamina-6G. Lo studio ha riguardato il tempo necessario all’omogeneizzazione del tracciante mediante un’analisi del coefficiente di variazione, CoV, delle immagini acquisite.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La presente tesi si posiziona all’interno di un percorso di ricerca avviato riguardante lo studio delle coperture lignee di vari edifici storici. Gli obiettivi del lavoro consistono nel fornire un quadro generale sullo stato dell’arte della modellazione parametrica per la diagnosi di strutture lignee storiche, completare e approfondire lo studio delle capriate della Cattedrale di S.Pietro a Bologna ed effettuare un confronto sia in termini quantitativi che di velocità esecutiva con metodologia e risultati degli studi precedenti. Il metodo proposto,è stato perfezionato grazie ai feedback ottenuti in corso d’opera a seguito della sua applicazione a nuovi casi studio.L’intento principale è quello di consentire maggior automatizzazione e parametrizzazione del metodo per conferire alle procedure di modellazione un carattere generalizzato e rapidamente replicabile.Sono state ottimizzate le fasi di editing della nuvola di punti e di vettorializzazione delle sezioni degli elementi strutturali.Al fine di approfondire la conoscenza di queste strutture,si è acquisito il rilievo 3D completo del sottotetto dell’edificio con laser scanner.Il primo output consiste quindi in una nuvola di punti dalla quale sono state estrapolate le singole capriate;da queste è possibile estrarre le sezioni delle aste afferenti ai nodi,poi vettorializzate tramite software di modellazione parametrica:sono stati utilizzati algoritmi,programmati e testati nei precedenti studi,che generano 3 modelli per ogni capriata:il modello di rilievo, il modello proiettato e quello “ideale o teorico”.Comparando i modelli e la nuvola di punti di rilievo è possibile analizzare spostamenti e deformazioni delle capriate,ottenere informazioni sul loro comportamento puntale e trarre considerazioni sullo“stato di salute”globale del sottotetto.I dati raccolti permettono di acquisire una maggiore consapevolezza sulle capriate oggetto di indagine e potrebbero essere utilizzati per progettare eventuali interventi di recupero.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il siero di latte è un sottoprodotto dell’industria lattiero casearia dotato di ottime proprietà nutrizionali dato il contenuto in proteine ad alto valore biologico, vitamine del gruppo B e minerali quali calcio, magnesio, fosforo e zinco. Per questo è auspicabile valorizzarne l’impiego piuttosto che destinarlo allo smaltimento. All’interno del progetto regionale “Innovative Milk and Meat products for consumer's health” sono stati sviluppati dal Centro Ricerche Produzioni Animali tre prototipi di bevande ottenute a partire dal siero di fine lavorazione del Parmigiano Reggiano: una a base di siero pastorizzato, una a base di siero pastorizzato e fermentato e una terza in cui sono stati aggiunti probiotici. Le tre bevande oggetto di questo studio sono state sottoposte a digestione statica in vitro secondo il protocollo INFOGEST, i campioni di digerito sono stati prelevati a metà della fase gastrica, metà della fase duodenale e fine della fase duodenale e su questi è stata calcolata la bioaccessibilità proteica mediante assorbanza a 280 nm, il grado di idrolisi proteica con il metodo OPA, e la cinetica di proteolisi attraverso la gel elettroforesi SDS-PAGE. Dai risultati è emerso che i valori di bioaccessibilità e il grado di idrolisi proteica aumentano in maniera significativa al progredire della digestione, ma senza differenze significative nei valori finali tra i prototipi di bevande considerati. La diversa efficienza dell’idrolisi proteica nelle diverse fasi della digestione è stata confermata dall’analisi SDS page dei campioni digeriti, in cui si è potuto apprezzare un aumento delle bande a minor peso molecolare al progredire della digestione, anche in questo caso senza differenze significative tra i campioni. Quindi, nelle condizioni sperimentali utilizzate la fermentazione e l’aggiunta di probiotici non hanno influenzato significativamente la digeribilità e la bioaccessibilità delle proteine presenti nelle bevande.