734 resultados para Vicente Di Grado
Resumo:
Il lavoro svolto in questa tesi era finalizzato allo studio di 14 ceppi di Companilactobacillus alimentarius isolati da salami spagnoli con un duplice obiettivo: da una parte aumentare la conoscenza relativa a questa specie, le cui informazioni in letteratura sono ancora scarse, dall’altra valutarne i caratteri di sicurezza e le performance tecnologiche per selezionare ceppi da utilizzare eventualmente come colture starter e/o bioprotettive in salumi fermentati o altri prodotti alimentari. I ceppi sono stati prima testati per la loro capacità di produrre ammine biogene, con circa la metà dei ceppi in grado di produrre tiramina, mentre solo 4 accumulavano istamina e due putrescina. Dai dati relativi all’antibiotico resistenza è emerso che la metà dei ceppi erano sensibili agli 8 antibiotici testati. È stata valutata poi la capacità dei ceppi di crescere a diverse temperature (10, 20 e 30°C) e a diverse concentrazioni di NaCl (0, 2,5, 5%). I risultati hanno mostrato un andamento variabile: un solo ceppo non era in grado di crescere a 10°C, mentre a 30°C i ceppi si dividevano in due gruppi, ed i ceppi caratterizzati da maggiori velocità di sviluppo a questa temperatura erano anche quelli dotati delle migliori performance a 20 e 10°C. Mentre per la capacità di crescere a diverse concentrazioni di sale, la variabilità era più evidente alla più alta concentrazione di NaCl (5%). Infine, è stata valutata la capacità di produrre molecole che potessero avere un impatto sul profilo sensoriale del prodotto, tra cui i composti derivanti dall’acido piruvico (acetoino, diacetile, 2-butanone), acido acetico, etanolo, benzeneacetaldeide e benzaldeide, ed anche in questo caso i ceppi hanno mostrato attitudini diverse all’accumulo di questi metaboliti. Sulla base dei dati ottenuti in questo lavoro sperimentale, 2 ceppi tra i 14 testati sono stati scelti per future sperimentazioni, dapprima in vitro e poi in sistemi reali, per valutare il loro potenziale come nuove colture starter.
Resumo:
Lo scopo della tesi è dimostrare il teorema di Arnold-Liouville, il quale afferma che dato un sistema a n gradi di libertà, con n integrali primi del moto in involuzione, esiste una trasformazione canonica di variabili azione-angolo, attraverso la quale si può riscrivere il sistema in uno ad esso equivalente, ma dipendente solo dalle azioni. Per arrivare a questo risultato nel primo capitolo viene richiamata la nozione di sistema hamiltoniano, di flusso del sistema e delle sue proprietà, viene infine introdotta una operazione binaria tra funzioni, la parentesi di Poisson, evidenziando il suo legame con il formalismo hamiltoniano. Nel secondo capitolo si definisce inizialmente cos'è una trasformazione canonica di variabili, dimostrando poi alcuni criteri per la canonicità di queste, mediante la verifica di determinate condizione necessarie e sufficienti, con opportuni esempi di trasformazioni canoniche e non. Nel terzo capitolo si definisce cos'è un sistema hamiltoniano integrabile, facendone successivamente un esempio a un grado di libertà con il pendolo. Il procedimento svolto in questo esempio si vorrà poi estendere a un generico sistema a n gradi di libertà, dunque verrà enunciato e dimostrato il teorema di Arnold-Liouvill, il quale, sotto opportune ipotesi, permette di risolvere questo problema.
Resumo:
Il presente elaborato analizza il processo produttivo del vino Lambrusco, ripercorrendo la storia e la tecnica che hanno influenzato, e che comunque riguardano tuttora, il processo produttivo dei vini frizzanti a nome Lambrusco. In modo particolare analizza il percorso storico di evoluzione tecnica e tecnologica che ha maggiormente condizionato l’evoluzione di questo prodotto unico nel suo genere, descrivendo i processi produttivi maggiormente significativi, oltre ad approfondire alcuni argomenti di carattere enologico e microbiologico applicato di estrema attualità, che potranno essere utili per contrastare o mitigare le influenze sul prodotto dovute al cambiamento climatico, come il progressivo abbassamento delle acidità, l’innalzamento del grado alcolico e le sempre più frequenti alterazioni dei vini; così come per andare incontro alle tendenze di consumo del mercato, che richiede sempre di più vini freschi, morbidi e caratterizzati da una facile beva.
Resumo:
Ad oggi, l’attuale gold standard per il trattamento di amputazioni transfemorali è rappresentato dall’utilizzo di protesi con invaso (socket). Tuttavia, si rileva un elevato grado di insoddisfazione in questo tipo di protesi, dovuto a numerose complicazioni. Per questo sono state sviluppate le protesi osteointegrate. Queste protesi hanno numerosi vantaggi rispetto alla tipologia socket ma presentano anch’esse dei problemi, in particolare complicazioni meccaniche, di mobilizzazione e di infezione. Per questo, lo scopo di questo elaborato di tesi è stato quello di sviluppare ed ottimizzare un metodo per caratterizzare il comportamento biomeccanico di una protesi osteointegrata per amputati transfemorali, tramite Digital Image Correlation (DIC). In particolare, sono state valutate le condizioni e i metodi sperimentali utili a simulare una reale situazione fisiologica di distribuzione delle deformazioni sulla superficie dell’osso una volta impiantata la protesi. Per le analisi è stato utilizzato un provino di femore in composito nel quale è stata impiantata una protesi osteointegrata. È stata effettuata un’ottimizzazione dei parametri della DIC per consentire una misura precisa e affidabile. In seguito, sono state svolte due tipologie di test di presso-flessione sul provino per valutare la ripetibilità dell’esperimento e l’intensità delle deformazioni superficiali al variare del carico in range fisiologico. Il metodo sviluppato è risultato ripetibile, con un errore al di sotto della soglia stabilita. All’aumentare del carico è stato possibile osservare un aumento lineare delle deformazioni, oltre che un’espansione dell’area sottoposta a deformazioni più elevate. I valori di deformazioni ottenuti rientrano nei range fisiologici e sono confrontabili con quelli ottenuti in letteratura. L’applicazione del metodo sviluppato a provini di femore provenienti da donatore umano permetterà la generalizzazione dei risultati ottenuti in questo studio.
Resumo:
Lo sviluppo di fibrosi epatica si associa caratteristicamente a un eccesso di produzione e reticolazione della matrice extracellulare del tessuto, che causa un progressivo aumento del modulo elastico e della viscosità dell’organo – che a loro volta determinano ipertensione portale e insufficienza funzionale. Modelli avanzati che riproducano in vitro il microambiente epatico sono cruciali per lo studio della patogenesi del fenomeno e per la valutazione di adeguate terapie future. Un esempio chiaro di questa strategia viene presentato in un recente lavoro di ricerca, nel quale Cacopardo et al. propongono una strategia basata sull’utilizzo di tipi differenti di idrogel, con proprietà elastiche e viscosità variabili, per studiare la meccano-dinamica in un ambiente di coltura tridimensionale. Idrogel di carichi di cellule sono dunque stati differenzialmente reticolati mediante transglutaminasi microbica, utilizzando un metodo citocompatibile originale che consenta l’esposizione delle cellule a un ambiente con proprietà meccaniche che variano nel tempo. Per la coltura dei costrutti 3D è stato inoltre utilizzato un bioreattore che si è dimostrato utile anche per monitorare nel tempo le proprietà meccaniche dei costrutti cellulari. I risultati hanno mostrato che una maggiore “solidità” della matrice è coerente con l’aumento dello stress cellulare. Il metodo proposto si è dimostrato quindi in grado di imitare efficacemente il microambiente meccanico associato alla fibrosi epatica e in evoluzione nel tempo e, di conseguenza, potrebbe fornire nuove informazioni sui processi fisiopatologici correlati e suggerire più efficaci strategie terapeutiche.
Resumo:
Le colture starter sono preparazioni comprendenti una o più specie microbiche aggiunte per condurre i processi fermentativi, con risvolti positivi sulle caratteristiche tecnologiche e igienico-sanitarie dei prodotti ottenuti. Questa tesi si inserisce in un progetto europeo volto a sfruttare la biodiversità microbica di salumi dell'area del Mediterraneo, utilizzandoli come fonte di isolamento di batteri lattici (LAB) da proporre come nuove colture starter e/o bioprotettive. Prove preliminari hanno permesso di selezionare un numero ridotto di LAB, considerati sicuri, che in questa tesi sono stati studiati per il loro potenziale tecnologico (cinetiche di crescita a 20°C) per valutarne l’attitudine ad essere utilizzati in salami prodotti a livello industriale. Sulla base di queste prove effettuate in laboratorio, 4 ceppi (Latilactobacillus sakei 2M7 e SWO10, Lactiplantibacillus paraplantarum BPF2, Latilactobacillus curvatus KN55) sono stati utilizzati per la produzione di salami a livello industriale, confrontando le loro performances con uno starter commerciale utilizzato comunemente in azienda. I risultati hanno mostrato come tutti i ceppi siano stati in grado di sviluppare nella matrice con cinetiche simili, anche se questa acidificazione non ha limitato il contenuto di enterobatteri, ad eccezione del campione controllo, dove tuttavia i LAB hanno mostrato una ridotta capacità di persistenza. Il ceppo BPF2 ha ridotto significativamente il contenuto di tiramina nel prodotto finito. L’analisi dei metaboliti volatili ha evidenziato un diverso accumulo di prodotti derivanti dallo sviluppo dei LAB (es. acidi, aldeidi), anche se tali differenze erano difficilmente percepibili a livello olfattivo e tutti i salami presentavano un odore gradevole. Ulteriori prove saranno necessarie per garantire la qualità microbiologica del prodotto finito (controllo degli enterobatteri) e per effettuare anche test sensoriali, al fine anche di favorire la differenziazione dei prodotti.
Resumo:
Il Modello Standard è attualmente la teoria che meglio spiega il comportamento della fisica subnucleare, includendo la definizione delle particelle e di tre delle quattro forze fondamentali presenti in natura; risulta però una teoria incompleta sulle cui integrazioni i fisici stanno lavorando in diverse direzioni: uno degli approcci più promettenti nella ricerca di nuova fisica risulta essere quello delle teorie di campo efficaci. Il vertice di interazione del processo di produzione di coppie di quark top dello stesso segno a partire da protoni è fortemente soppresso nel Modello Standard e deve quindi essere interpretato con le teorie di campo efficaci. Il presente elaborato si concentra su questo nuovo approccio per la ricerca di quark top same-sign e si focalizza sull’utilizzo di una rete neurale per discriminare il segnale dal fondo. L’obiettivo è capire se le prestazioni di quest’ultima cambino quando le vengono fornite in ingresso variabili di diversi livelli di ricostruzione. Utilizzando una rete neurale ottimizzata per la discriminazione del segnale dal fondo, le si sono presentati tre set di variabili per l’allenamento: uno di alto livello, il secondo strettamente di basso livello, il terzo copia del secondo con aggiunta delle due variabili principali di b-tagging. Si è dimostrato che la performance della rete in termini di classificazione segnale-fondo rimane pressoché inalterata: la curva ROC presenta aree sottostanti le curve pressoché identiche. Si è notato inoltre che nel caso del set di variabili di basso livello, la rete neurale classifica come input più importanti gli angoli azimutali dei leptoni nonostante questi abbiano distribuzioni identiche tra segnale e fondo: ciò avviene in quanto la rete neurale è in grado di sfruttare le correlazioni tra le variabili come caratteristica discriminante. Questo studio preliminare pone le basi per l’ottimizzazione di un approccio multivariato nella ricerca di eventi con due top dello stesso segno prodotti a LHC.
Resumo:
Nel TCR - Termina container Ravenna, è importante che nel momento di scarico del container sul camion non siano presenti persone nell’area. In questo elaborato si descrive la realizzazione e il funzionamento di un sistema di allarme automatico, in grado di rilevare persone ed eventualmente interrompere la procedura di scarico del container. Tale sistema si basa sulla tecnica della object segmentation tramite rimozione dello sfondo, a cui viene affiancata una classificazione e rimozione delle eventuali ombre con un metodo cromatico. Inoltre viene identificata la possibile testa di una persona e avendo a disposizione due telecamere, si mette in atto una visione binoculare per calcolarne l’altezza. Infine, viene presa in considerazione anche la dinamica del sistema, per cui la classificazione di una persona si può basare sulla grandezza, altezza e velocità dell’oggetto individuato.
Resumo:
La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.
Resumo:
La tesi descrive un modello AIMMS di ottimizzazione dei flussi di potenza tra gli utenti di una comunità energetica rinnovabile. Il modello considera la presenza nella stessa rete di distribuzione di più comunità energetiche. Ogni utente può scegliere un fornitore diverso dagli altri anche se partecipa ad una comunità. Sono considerati generatori fotovoltaici e sistemi di accumulo. Per i carichi sono stati generati profili tipici di utenze domestiche. Il modello è in grado di valutare i prezzi delle transazioni di energia interne a ciascuna comunità, in base alle tariffe orarie dei fornitori di energia. Per la rete di distribuzione test IEEE a 123 nodi, la tesi presenta una analisi di sensitività al variare della taglia dei sistemi di accumulo, della potenza di picco dei generatori fotovoltaici, della potenza richiesta dai carichi, del numero di comunità energetiche e dei fornitori.
Resumo:
La classificazione di dati geometrici 3D come point cloud è un tema emergente nell'ambito della visione artificiale in quanto trova applicazione in molteplici contesti di guida autonoma, robotica e realtà aumentata. Sebbene nel mercato siano presenti una grande quantità di sensori in grado di ottenere scansioni reali, la loro annotazione costituisce un collo di bottiglia per la generazione di dataset. Per sopperire al problema si ricorre spesso alla domain adaptation sfruttando dati sintetici annotati. Questo elaborato si pone come obiettivo l'analisi e l'implementazione di metodi di domain adaptation per classificazione di point cloud mediante pseudo-labels. In particolare, sono stati condotti esperimenti all'interno del framework RefRec valutando la possibilità di sostituire nuove architetture di deep learning al modello preesistente. Tra queste, Transformer con mascheramento dell'input ha raggiunto risultati superiori allo stato dell'arte nell'adattamento da dati sintetici a reali (ModelNet->ScanNet) esaminato in questa tesi.
Resumo:
La città di Bologna è sicuramente famosa per le sue due torri, ma anche per la fitta rete idraulica ormai nascosta sotto le strade e sotto gli edifici. I primi canali di Bologna furono realizzati tra il XII e il XVI secolo a seguito della costruzione delle due opere fondamentali: le chiuse di San Ruffillo e di Casalecchio. Queste due opere di presa servivano e, servono ancora oggi, ad alimentare i canali del Navile, del Reno, del Savena, del Cavaticcio e delle Moline. Oltre a questi canali alimentati dalle acque dei fiumi, sotto la città di Bologna scorrono torrenti che drenano le acque prevalentemente meteoriche della zona pedecollinare della città, come ad esempio il torrente Ravone. Il presente lavoro di tesi ha come caso di studio proprio quest’ultimo. Il Ravone, in origine, scorreva a cielo aperto attraversando la città, ma per permettere l’urbanizzazione fuori dalle mura, è stato tombato in diversi tratti e in diverse epoche. La scarsità di informazioni riguardo la sua esatta posizione e la mancanza di elaborati grafici in grado di descriverne la sua geometria, ha spinto le autorità a richiedere un accurato rilievo al LARIG dell’UniBo. Le operazioni di rilievo si sono svolte con l’uso di tecniche geomatiche per la modellazione tridimensionale come l’aerofotogrammetria e l’acquisizione con laser scanner terrestre. Al fine di georeferenziare il dato acquisito, si è ricorso a tecniche di rilievo topografico come il posizionamento GNSS e la misurazione di angoli e distanze con stazione totale. I primi capitoli di questo elaborato sono dedicati alla descrizione dei fondamenti teorici della geodesia e delle tecniche di rilievo utilizzate per la restituzione del modello tridimensionale. Gli ultimi capitoli, invece, sono dedicati alla descrizione delle fasi di rilievo e all’analisi dei dati, dedicando particolare attenzione alla georeferenziazione delle nuvole di punti acquisite in ambienti confinati, come i tratti tombati del torrente Ravone.
Resumo:
L’Intelligenza Artificiale negli ultimi anni sta plasmando il futuro dell’umanità in quasi tutti i settori. È già il motore principale di diverse tecnologie emergenti come i big data, la robotica e l’IoT e continuerà ad agire come innovatore tecnologico nel futuro prossimo. Le recenti scoperte e migliorie sia nel campo dell’hardware che in quello matematico hanno migliorato l’efficienza e ridotto i tempi di esecuzione dei software. È in questo contesto che sta evolvendo anche il Natural Language Processing (NLP), un ramo dell’Intelligenza Artificiale che studia il modo in cui fornire ai computer l'abilità di comprendere un testo scritto o parlato allo stesso modo in cui lo farebbe un essere umano. Le ambiguità che distinguono la lingua naturale dalle altre rendono ardui gli studi in questo settore. Molti dei recenti sviluppi algoritmici su NLP si basano su tecnologie inventate decenni fa. La ricerca in questo settore è quindi in continua evoluzione. Questa tesi si pone l'obiettivo di sviluppare la logica di una chatbot help-desk per un'azienda privata. Lo scopo è, sottoposta una domanda da parte di un utente, restituire la risposta associata presente in una collezione domande-risposte. Il problema che questa tesi affronta è sviluppare un modello di NLP in grado di comprendere il significato semantico delle domande in input, poiché esse possono essere formulate in molteplici modi, preservando il contenuto semantico a discapito della sintassi. A causa delle ridotte dimensioni del dataset italiano proprietario su cui testare il modello chatbot, sono state eseguite molteplici sperimentazioni su un ulteriore dataset italiano con task affine. Attraverso diversi approcci di addestramento, tra cui apprendimento metrico, sono state raggiunte alte accuratezze sulle più comuni metriche di valutazione, confermando le capacità del modello proposto e sviluppato.
Resumo:
I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.