754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
In questo lavoro di Tesi è stato progettato un modello di bioraffineria che valorizza una matrice vegetale di scarto, la farina di ghianda, utilizzandola come materia prima per la produzione di biocosmetici ad elevato valore aggiunto. Le ghiande, lungi dall’essere uno scarto forestale privo di valore, sono una preziosa risorsa rinnovabile, disponibile a livello globale in ingenti quantità nonché ricca fonte di preziosi fitocomposti che mediante bioliquefazione molecolare possono essere resi biodisponibili e solubili in ambiente acquoso. Vengono condotte prove di bioliquefazione molecolare con preparati enzimatici commerciali diversi al fine di identificare il metodo di estrazione più adatto per ottenere il bioliquefatto con il maggiore potere antiossidante da inserire nelle formulazioni cosmetiche. Dalla scomposizione di tale materia vegetale di scarto nelle componenti principali e dalla ricomposizione delle stesse si ottengono biocosmetici che soddisfano tutti i requisiti di sostenibilità: costituiti quasi interamente da una sola materia prima di scarto, ottenuti attraverso processi biotecnologici a basso impatto ambientale e una produzione di rifiuti prossima allo zero. Mediante modellazione 3D vengono progettati prototipi di packaging cosmetici sostenibili ed ecocompatibili.
Resumo:
Le criticità sorte in seguito alla diffusione della Pandemia da Covid-19, a partire dal 2020, sono numerose. In tal senso, all’interno della logistica, rivestono un ruolo molto rilevante i numerosi ritardi nelle consegne, che trovano maggiore evidenza nelle spedizioni via mare. Pertanto, l’adozione di strategie volte ad aumentare la resilienza delle catene di approvvigionamento, rendendole in grado di resistere alle criticità del presente e alle possibili evoluzioni del futuro, diventa sempre più importante. L’obiettivo del presente studio è l’individuazione di una strategia che permetta di rispondere alle criticità legate ai ritardi nelle consegne dei materiali, per ridurre i problemi da essi causati. L’azienda in cui questo studio è stato svolto è la Ducati Motor Holding S.p.A., produttrice di motocicli. Infatti, nelle aziende manifatturiere, il ritardo nell’arrivo dei componenti determina delle conseguenze nella produzione ed eventuali ritardi nella consegna del prodotto finito. Per fronteggiare queste difficoltà, il metodo individuato consiste nell’analisi dei dati storici relativi ai ritardi rilevati e nella previsione dei ritardi futuri, utilizzando le tecniche di previsione basate sulle serie storiche. L’individuazione del numero di giorni di ritardo previsti viene utilizzata per determinare ogni mese il margine di copertura ottimale con cui effettuare gli ordini ai fornitori, in modo da evitare problemi nella produzione. Questo margine di copertura è definito dinamico, poiché non è fissato tutto l’anno per un medesimo materiale, ma varia ogni mese in base alle previsioni effettuate, garantendo così la flessibilità necessaria per rispondere alle contingenze esterne. In questo modo, riducendo i ritardi nelle consegne e, di conseguenza, i ritardi nella produzione, si ottiene un risparmio economico in termini di costi da sostenere, considerando i costi di stoccaggio e i costi di recupero delle moto incomplete.
Resumo:
Esposizione problemi di Sturm-Liouville regolari 1D e di un metodo di risoluzione per essi, ovvero il metodo della funzione di Green. Definizione di autovalori e autofunzioni per tali problemi e proprietà legate ad essi sfruttando anche le proprietà della funzione di Green, in particolare il risultato più importante sarà quello che le autofunzioni costituiscono una base ortonormale in L^2(I) dove I è un intervallo.
Resumo:
La matrice di Leslie è uno degli strumenti più utilizzati in ecologia nella dinamica delle popolazioni. Infatti a partire dallo studio dell'autovalore dominante della matrice e dell'autovettore ad esso associato è possibile prevedere l'evolversi della popolazione (sviluppo o estinzione), la convergenza di ogni classe di età e la sensibilità dell'autovalore dominante al variare delle componenti della matrice. L'obiettivo di questo elaborato è quindi quello di presentare e studiare questo modello matriciale, applicandolo a esempi di popolazioni e analizzandone le analogie con il Metodo delle Potenze.
Resumo:
ABSTRACT Il lavoro svolto in questa tesi è stato quello di produrre dei pani andando a sostituire nella formulazione l’acqua con delle puree vegetali di mirtilli o peperoni, utilizzate fresche o fermentate. La fermentazione è stata condotta tramite due ceppi di batteri lattici (Leuconostoc mesenteroides L223 e Lactiplantibacillus plantarum L88) e due di lieviti (Saccharomyces cerevisiae Y267 e Hanseniaspora uvarum Y309), che erano stati precedentemente isolati dalle puree di mirtilli e peperoni fermentate spontaneamente, e che presentavano le migliori performances. Gli obiettivi di questa tesi erano di arricchire il profilo sensoriale e il contenuto in sostanze funzionali (ad esempio polifenoli e vitamine, di cui le matrici utilizzate sono particolarmente ricche) del pane. I prodotti ottenuti sono stati analizzati per monitorare gli aspetti chimico-fisici (pH, lievitazione dell’impasto) e il profilo aromatico. Sui diversi pani ottenuti è stato infine eseguito un test di assaggio per valutare l’accettabilità del prodotto ed una sua possibile introduzione nel mercato. I risultati delle analisi hanno mostrato un rilevante sviluppo di sostanze volatili nelle puree vegetali fermentate e queste molecole, in parte, sono state trasferite nel pane andando a modificare il suo profilo aromatico. L’aggiunta di puree fermentate ha quindi fortemente caratterizzato gli impasti e i pani ottenuti, che presentavano un profilo aromatico più complesso rispetto ai pani ottenuti con le sole puree vegetali non fermentate. Questo aspetto positivo è stato confermato dal test di assaggio, poiché i pani addizionati di puree fermentate (soprattutto mirtillo) hanno ottenuti punteggi positivi in termini di dolcezza, acidità e fruttato. Questo conferma le grandi potenzialità di questi pani, che oltre a differenziare i prodotti presenti sul mercato, possono andare a valorizzare matrici vegetali sovra-mature, e destinate ad essere scartate, o parti di vegetali non utilizzate nelle produzioni.
Resumo:
L’obiettivo iniziale di questo lavoro era quello di studiare il fenomeno della proteolisi nel formaggio, al variare del tempo di stagionatura e di salatura, mediante lo studio dello stato dell’acqua, con una metodica non distruttiva e innovativa per questa tematica: il TD-NMR. I formaggi oggetto di studio sono stati prodotti con un impianto pilota presente in Dipartimento, con lo stesso latte, nella stessa giornata e nelle medesime condizioni di caseificazione. Il primo passo è stato quello di assegnare un nome alle 4 popolazioni di protoni corrispondenti alle 4 curve esponenziali in cui si traducevano i risultati di T2. Dato che gli studi bibliografici consultati non erano concordi su questo aspetto e nessuno aveva svolto esperimenti che potessero confermare le supposizioni formulate, abbiamo proceduto all’analisi di un formaggio simile ai nostri campioni, addizionato di una soluzione dopante a base di Fe(III)Cl2. Questo passaggio ci ha permesso di identificare i tipi di molecole rappresentati dalle 4 popolazioni. Successivamente siamo stati in grado di fare ipotesi concrete sull’evoluzione dei risultati di T2 e intensità relativa al variare del tempo di stagionatura e di salatura. Dalle nostre osservazioni è emerso che è possibile correlare l’andamento di T2 e I a quello di diversi parametri che caratterizzano il formaggio. Le ipotesi emerse da questo studio sono solamente intuizioni preliminari riguardo l’impiego di questo metodo di analisi per il formaggio, che però ha la potenzialità di essere molto utile nella ricerca e anche nell’industria. Si tratta infatti di un metodo caratterizzato da estrema facilità nella preparazione dei campioni, che può essere adattato ad analisi non distruttive e che impiega uno strumento molto economico rispetto ad altri tipi di analisi NMR. Possiamo inoltre concludere che, avendo messo a punto questi aspetti di base, l’interpretazione dei dati sarà senz’altro più semplice rispetto ad altre analisi NMR.
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di valutare l’effetto di diverse modalità di affumicatura sulla funzionalità della frazione proteica di filetti di salmoni norvegesi, valutata tramite la determinazione della solubilità e dell’ossidazione delle proteine. A tale scopo, 60 filetti di salmone dal peso omogeneo di circa 600g sono stati sottoposti a salagione e successivamente suddivisi in 3 gruppi sperimentali in funzione del processo di affumicatura (n=20/gruppo): ad aria a 20°C (AR-20), ad azoto a 20°C (AZ-20) e a 5°C (AZ-5). Al termine dei trattamenti tutti i filetti sono stati confezionati sottovuoto, conservati in cella frigorifera e sottoposti alle determinazioni analitiche a 5 diversi tempi di campionamento, per un totale di 17 giorni di conservazione. Dai dati ottenuti si evince come la tecnica di affumicatura commerciale (AR-20) determini, nel complesso, una riduzione della solubilità totale delle proteine, presumibilmente dovuta all’innesco di fenomeni ossidativi che hanno causato un accumulo di composti carbonilici, prevalentemente riscontrabile al termine della conservazione. L’affumicatura con azoto ha fatto invece registrare un miglioramento della funzionalità proteica a prescindere dalla temperatura impiegata, se paragonata all’affumicatura commerciale. A discapito di quanto atteso, l’affumicatura con azoto a 5°C non ha determinato un miglioramento in termini di solubilità ed ossidazione proteica, se paragonato alla controparte affumicata a 20°C; infatti i campioni appartenenti al gruppo AZ-20 hanno mostrato valori di solubilità proteica più elevati congiuntamente ad un contenuto di carbonili significativamente ridotto rispetto agli altri gruppi sperimentali. Alla luce di questi aspetti, ulteriori studi sono necessari al fine di confermare i risultati ottenuti ed approfondire l’effetto delle diverse modalità di affumicatura sulle proprietà funzionali e tecnologiche dei filetti di salmone.
Resumo:
L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.
Resumo:
Nel presente lavoro di tesi viene selezionato e analizzato un campione di galassie passive estratte dalla survey VANDELS, con cui condurre uno studio cosmologico basato sul metodo dei cronometri cosmici. Tale metodo rappresenta una sonda cosmologica non standard, che consente di misurare il parametro di Hubble in maniera indipendente dalla cosmologia valutando l’invecchiamento di una popolazione di galassie molto massive e in evoluzione passiva in un dato intervallo di redshift. Per applicare il metodo viene selezionato un campione di cronometri cosmici incrociando diversi criteri complementari, sia fotometrici che spettroscopici, tali da minimizzare la contaminazione da formazione stellare attiva. Il campione ottenuto ha ⟨log(M⋆/M⊙)⟩=10.86±0.03, ⟨log(sSFR/yr−1)⟩=-11.9±0.1 e ⟨EW[OII]⟩=3.3±0.2 Å. Dallo studio delle proprietà spettroscopiche, in particolare degli indici sensibili all’età, esso mostra un progressivo invecchiamento al diminuire del redshift ed evidenza di mass-downsizing. Per la stima delle età si adotta la tecnica del full-spectral fitting, sia sugli spettri che sulla fotometria disponibili, utilizzando il codice Bagpipes. Dai risultati del fit emerge che le galassie individuate hanno, come atteso, metallicità mediamente sotto-solari (⟨Z/Z⊙⟩=0.44±0.01), bassa estinzione da polvere (⟨AV,dust⟩=0.43±0.02 mag) e una fase di formazione stellare breve (⟨τ⟩=0.28±0.02 Gyr). A partire da questi viene costruita la relazione età-redshift mediana per il campione finale di 39 galassie, esplorandone la robustezza con diverse assunzioni di prior e binnaggio. Fittata con un modello fΛCDM, essa permette di ricavare una stima per la costante di Hubble pari a H0 = 67^+14_−15 km/s/Mpc. Infine, con la stessa relazione si applica il metodo dei cronometri cosmici, ottenendo una nuova stima del parametro di Hubble, H(z=1.26) = 135±62 km/s/Mpc. Nell’errore si è tenuto conto anche degli effetti sistematici introdotti dalla scelta del binning e della SFH nel modello di fit.
Resumo:
Background L’identificazione degli eventi temporali permette nell’analisi del movimento di valutare la qualità del gesto motorio e si offre in aiuto alla formulazione di diagnosi cliniche, valutazioni di un percorso riabilitativo e in ambito ortopedico per la creazione di protesi. L’uso sempre più diffuso dei sensori inerziali nell’analisi del movimento ha portato alla nascita di numerosi algoritmi per identificare gli eventi temporali; tuttavia, molti di questi sono stati sviluppati per la ricerca dei gate event sull’analisi del cammino, mentre non sono molti quelli dedicati allo studio dell’arto superiore, dove il reaching è il task motorio più studiato. Obiettivo tesi Proporre un metodo per l’identificazione degli eventi temporali su movimento di reaching con l’uso di soli sensori inerziali. Metodo All’interno del progetto Neurograsp, che è uno studio di analisi del movimento di reaching condotto presso il Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione Guglielmo Marconi sono stati considerati i dati relativi alla stereofotogrammetria e ai sensori inerziali. L’analisi ha riguardato tre soggetti sani destrorsi. È stato considerato il sistema di stereofotogrammetria come gold standard con cui si sono rilevati gli eventi temporali ricercati del task motorio e successivamente si è implementato un metodo per identificare gli stessi eventi temporali tramite l’uso dei soli sensori inerziali. L’analisi è terminata con il confronto dei risultati. Risultati Si sono effettuate le analisi dei risultati in termini di classificazione dei times individuati dall’algoritmo come corretti, falsi positivi o falsi negativi e sulla quantificazione dell’errore assoluto sui valori identificati correttamente.
Resumo:
Ad oggi, l’attuale gold standard per il trattamento di amputazioni transfemorali è rappresentato dall’utilizzo di protesi con invaso (socket). Tuttavia, si rileva un elevato grado di insoddisfazione in questo tipo di protesi, dovuto a numerose complicazioni. Per questo sono state sviluppate le protesi osteointegrate. Queste protesi hanno numerosi vantaggi rispetto alla tipologia socket ma presentano anch’esse dei problemi, in particolare complicazioni meccaniche, di mobilizzazione e di infezione. Per questo, lo scopo di questo elaborato di tesi è stato quello di sviluppare ed ottimizzare un metodo per caratterizzare il comportamento biomeccanico di una protesi osteointegrata per amputati transfemorali, tramite Digital Image Correlation (DIC). In particolare, sono state valutate le condizioni e i metodi sperimentali utili a simulare una reale situazione fisiologica di distribuzione delle deformazioni sulla superficie dell’osso una volta impiantata la protesi. Per le analisi è stato utilizzato un provino di femore in composito nel quale è stata impiantata una protesi osteointegrata. È stata effettuata un’ottimizzazione dei parametri della DIC per consentire una misura precisa e affidabile. In seguito, sono state svolte due tipologie di test di presso-flessione sul provino per valutare la ripetibilità dell’esperimento e l’intensità delle deformazioni superficiali al variare del carico in range fisiologico. Il metodo sviluppato è risultato ripetibile, con un errore al di sotto della soglia stabilita. All’aumentare del carico è stato possibile osservare un aumento lineare delle deformazioni, oltre che un’espansione dell’area sottoposta a deformazioni più elevate. I valori di deformazioni ottenuti rientrano nei range fisiologici e sono confrontabili con quelli ottenuti in letteratura. L’applicazione del metodo sviluppato a provini di femore provenienti da donatore umano permetterà la generalizzazione dei risultati ottenuti in questo studio.
Resumo:
Lo sviluppo di fibrosi epatica si associa caratteristicamente a un eccesso di produzione e reticolazione della matrice extracellulare del tessuto, che causa un progressivo aumento del modulo elastico e della viscosità dell’organo – che a loro volta determinano ipertensione portale e insufficienza funzionale. Modelli avanzati che riproducano in vitro il microambiente epatico sono cruciali per lo studio della patogenesi del fenomeno e per la valutazione di adeguate terapie future. Un esempio chiaro di questa strategia viene presentato in un recente lavoro di ricerca, nel quale Cacopardo et al. propongono una strategia basata sull’utilizzo di tipi differenti di idrogel, con proprietà elastiche e viscosità variabili, per studiare la meccano-dinamica in un ambiente di coltura tridimensionale. Idrogel di carichi di cellule sono dunque stati differenzialmente reticolati mediante transglutaminasi microbica, utilizzando un metodo citocompatibile originale che consenta l’esposizione delle cellule a un ambiente con proprietà meccaniche che variano nel tempo. Per la coltura dei costrutti 3D è stato inoltre utilizzato un bioreattore che si è dimostrato utile anche per monitorare nel tempo le proprietà meccaniche dei costrutti cellulari. I risultati hanno mostrato che una maggiore “solidità” della matrice è coerente con l’aumento dello stress cellulare. Il metodo proposto si è dimostrato quindi in grado di imitare efficacemente il microambiente meccanico associato alla fibrosi epatica e in evoluzione nel tempo e, di conseguenza, potrebbe fornire nuove informazioni sui processi fisiopatologici correlati e suggerire più efficaci strategie terapeutiche.
Resumo:
L’obesità ad oggi è considerata un’epidemia globale ed è tutt’ora in rapido aumento insieme a tutte le comorbidità ad essa associate. Il gold standard per il trattamento di questa patologia è la terapia dietetico-comportamentale. Tuttavia, essa frequentemente si rivela non sufficiente nei quadri di obesità severa; in questo caso è possibile valutare la farmacoterapia, seppur sempre accostata alle indicazioni alimentari. Un’altra opzione è la chirurgia bariatrica, ritenuta una delle più efficaci forme di terapia per la cura dell’obesità severa. Molto importante per l’inquadramento clinico del paziente è la rilevazione delle abitudini alimentari, eseguita tramite diversi strumenti, quali l’Indagine Alimentare, il Recall delle 24 ore e il Diario Alimentare. Recentemente sono stati formulati diversi Food Frequency Questionnaires, ovvero questionari compilati direttamente del paziente con l’obiettivo di indagare sul consumo abituale dei principali prodotti alimentari suddivisi in categorie. Obiettivo: l’obiettivo di questo studio è stato quello di valutare l’appropriatezza di un Food Frequency Questionnaire composto da un totale di 7 categorie e 31 prodotti alimentari nella rilevazione delle abitudini di una popolazione di pazienti con diagnosi di obesità. Metodo: sono stati contattati telefonicamente 70 pazienti, suddivisi in due sottogruppi, ai quali sono state fornite istruzioni per la compilazione di un Diario Alimentare di tre giorni e del Food Frequency Questionnaire. Risultati: è stata considerata accettabile una differenza inferiore al 10% tra i valori derivanti dai due strumenti: su un campione totale di 52 pazienti, tale differenza è stata rilevata in 35 soggetti per quanto riguarda l’intake energetico, in 17 pazienti per i glucidi, in 7 partecipanti per l’apporto di proteine e in 13 casi per i lipidi. Conclusioni: i risultati confermano l’ipotesi che il Food Frequency Questionnaire fornisca valutazioni sovrapponibili a quelle derivanti dal Diario Alimentare.
Resumo:
L’Intelligenza Artificiale negli ultimi anni sta plasmando il futuro dell’umanità in quasi tutti i settori. È già il motore principale di diverse tecnologie emergenti come i big data, la robotica e l’IoT e continuerà ad agire come innovatore tecnologico nel futuro prossimo. Le recenti scoperte e migliorie sia nel campo dell’hardware che in quello matematico hanno migliorato l’efficienza e ridotto i tempi di esecuzione dei software. È in questo contesto che sta evolvendo anche il Natural Language Processing (NLP), un ramo dell’Intelligenza Artificiale che studia il modo in cui fornire ai computer l'abilità di comprendere un testo scritto o parlato allo stesso modo in cui lo farebbe un essere umano. Le ambiguità che distinguono la lingua naturale dalle altre rendono ardui gli studi in questo settore. Molti dei recenti sviluppi algoritmici su NLP si basano su tecnologie inventate decenni fa. La ricerca in questo settore è quindi in continua evoluzione. Questa tesi si pone l'obiettivo di sviluppare la logica di una chatbot help-desk per un'azienda privata. Lo scopo è, sottoposta una domanda da parte di un utente, restituire la risposta associata presente in una collezione domande-risposte. Il problema che questa tesi affronta è sviluppare un modello di NLP in grado di comprendere il significato semantico delle domande in input, poiché esse possono essere formulate in molteplici modi, preservando il contenuto semantico a discapito della sintassi. A causa delle ridotte dimensioni del dataset italiano proprietario su cui testare il modello chatbot, sono state eseguite molteplici sperimentazioni su un ulteriore dataset italiano con task affine. Attraverso diversi approcci di addestramento, tra cui apprendimento metrico, sono state raggiunte alte accuratezze sulle più comuni metriche di valutazione, confermando le capacità del modello proposto e sviluppato.
Resumo:
I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.