754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
Il lavoro di tesi si è posto l'obiettivo di studiare il comportamento fluidodinamico di un reattore agitato meccanicamente, scale-down di un digestore anaerobico per la produzione di biogas, attraverso tecniche di diagnostica ottica. Le tecniche utilizzate sono state la Particle Image Velocimetry, PIV, e la Planar Laser Induced Fluorescence, PLIF. Le prove sono iniziate utilizzando acqua all’interno del reattore e sono proseguite utilizzando una soluzione di acqua e Carbometilcellulosa (CMC) a concentrazione di CMC progressivamente crescente per aumentare la viscosità apparente della soluzione non newtoniana con lo scopo di simulare il più realisticamente possibile la viscosità del contenuto reale del digestore. Tutte le diverse soluzioni sono state indagate per diverse velocità e diversi sensi di rotazione. Le prove di diagnostica ottica sono state progressivamente affiancate da prove al reometro di campioni di soluzione per il calcolo della viscosità apparente. La PIV ha fornito la misura del campo di moto di un piano, è stato scelto di analizzare un piano verticale. Il metodo di diagnostica ottica ho previsto l’utilizzo di quattro componenti: una sezione per il test otticamente trasparente contenente la soluzione inseminata con piccole particelle di tracciante (particelle di argento e vetro cavo) che seguono il flusso, una sorgente di illuminazione pulsata (laser), un dispositivo di registrazione (una telecamera digitale ad alta definizione) ed un software per la cross-correlazione delle immagini acquisite (DynamicStudio). La PLIF è stata implementata per lo studio del tempo caratteristico di miscelazione nel reattore. La strumentazione utilizzata è stata la stessa della PIV con un tracciante diverso a base di Rodhamina-6G. Lo studio ha riguardato il tempo necessario all’omogeneizzazione del tracciante mediante un’analisi del coefficiente di variazione, CoV, delle immagini acquisite.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
La presente tesi si posiziona all’interno di un percorso di ricerca avviato riguardante lo studio delle coperture lignee di vari edifici storici. Gli obiettivi del lavoro consistono nel fornire un quadro generale sullo stato dell’arte della modellazione parametrica per la diagnosi di strutture lignee storiche, completare e approfondire lo studio delle capriate della Cattedrale di S.Pietro a Bologna ed effettuare un confronto sia in termini quantitativi che di velocità esecutiva con metodologia e risultati degli studi precedenti. Il metodo proposto,è stato perfezionato grazie ai feedback ottenuti in corso d’opera a seguito della sua applicazione a nuovi casi studio.L’intento principale è quello di consentire maggior automatizzazione e parametrizzazione del metodo per conferire alle procedure di modellazione un carattere generalizzato e rapidamente replicabile.Sono state ottimizzate le fasi di editing della nuvola di punti e di vettorializzazione delle sezioni degli elementi strutturali.Al fine di approfondire la conoscenza di queste strutture,si è acquisito il rilievo 3D completo del sottotetto dell’edificio con laser scanner.Il primo output consiste quindi in una nuvola di punti dalla quale sono state estrapolate le singole capriate;da queste è possibile estrarre le sezioni delle aste afferenti ai nodi,poi vettorializzate tramite software di modellazione parametrica:sono stati utilizzati algoritmi,programmati e testati nei precedenti studi,che generano 3 modelli per ogni capriata:il modello di rilievo, il modello proiettato e quello “ideale o teorico”.Comparando i modelli e la nuvola di punti di rilievo è possibile analizzare spostamenti e deformazioni delle capriate,ottenere informazioni sul loro comportamento puntale e trarre considerazioni sullo“stato di salute”globale del sottotetto.I dati raccolti permettono di acquisire una maggiore consapevolezza sulle capriate oggetto di indagine e potrebbero essere utilizzati per progettare eventuali interventi di recupero.
Resumo:
Il siero di latte è un sottoprodotto dell’industria lattiero casearia dotato di ottime proprietà nutrizionali dato il contenuto in proteine ad alto valore biologico, vitamine del gruppo B e minerali quali calcio, magnesio, fosforo e zinco. Per questo è auspicabile valorizzarne l’impiego piuttosto che destinarlo allo smaltimento. All’interno del progetto regionale “Innovative Milk and Meat products for consumer's health” sono stati sviluppati dal Centro Ricerche Produzioni Animali tre prototipi di bevande ottenute a partire dal siero di fine lavorazione del Parmigiano Reggiano: una a base di siero pastorizzato, una a base di siero pastorizzato e fermentato e una terza in cui sono stati aggiunti probiotici. Le tre bevande oggetto di questo studio sono state sottoposte a digestione statica in vitro secondo il protocollo INFOGEST, i campioni di digerito sono stati prelevati a metà della fase gastrica, metà della fase duodenale e fine della fase duodenale e su questi è stata calcolata la bioaccessibilità proteica mediante assorbanza a 280 nm, il grado di idrolisi proteica con il metodo OPA, e la cinetica di proteolisi attraverso la gel elettroforesi SDS-PAGE. Dai risultati è emerso che i valori di bioaccessibilità e il grado di idrolisi proteica aumentano in maniera significativa al progredire della digestione, ma senza differenze significative nei valori finali tra i prototipi di bevande considerati. La diversa efficienza dell’idrolisi proteica nelle diverse fasi della digestione è stata confermata dall’analisi SDS page dei campioni digeriti, in cui si è potuto apprezzare un aumento delle bande a minor peso molecolare al progredire della digestione, anche in questo caso senza differenze significative tra i campioni. Quindi, nelle condizioni sperimentali utilizzate la fermentazione e l’aggiunta di probiotici non hanno influenzato significativamente la digeribilità e la bioaccessibilità delle proteine presenti nelle bevande.
Resumo:
Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.
Resumo:
L’obbiettivo di questo elaborato è descrivere l'implementazione, attraverso l’uso del programma di calcolo Matlab, di un metodo per ottenere una configurazione di un velivolo dell’aviazione generale che sia rispettosa delle specifiche di progetto e presenti un costo orario minimo. Il metodo utilizzato per progettare l’aeromobile preso come caso di studio è basato sui concetti della progettazione robusta. Con questo metodo di progettazione si cerca di rendere l’aereo il più insensibile possibile alle modifiche di alcuni dei parametri di progetto che possono variare in modo casuale; in particolare ci si è concentrati sul costo orario di una missione, andandone a calcolare la media e la sua deviazione standard. Considerando infine il rapporto segnale-rumore introdotto da Taguchi per la progettazione robusta, viene implementato un metodo di ottimizzazione basato su un algoritmo Particle Swarm Optimization (PSO), attraverso il quale si ottengono i valori più idonei dei parametri di progetto necessari per la realizzazione del futuro velivolo. In dettaglio, i parametri fissati in seguito all’applicazione dell’ottimizzatore sono l’allungamento alare, il carico alare e il rapporto potenza massima motori-peso. A conclusione del lavoro svolto, si può dire che l’ottimizzazione robusta può essere utile in tutti i casi in cui alcuni parametri di progetto non sono definiti in modo univoco, ma possono variare in un modo non prevedibile all’inizio della sviluppo del prodotto.
Resumo:
Le equazioni alle derivate parziali lineari (PDE’s) hanno un ruolo centrale in molte applicazioni di tipo scientifico, ingegneristico, medico, finanziario e sociale. È necessario, per questo motivo, avere metodi robusti che permettano di approssimare soluzioni di classi di PDE’s. Nell’ambito dei problemi lineari ellittici stazionari, una delle procedure comunemente utilizzate consiste nel discretizzare l’equazione differenziale mediante l’approssimazione delle derivate con differenze finite nel dominio considerato, e risolvere il sistema lineare algebrico risultante. Lo scopo dell’elaborato è studiare la dipendenza della convergenza del metodo dei Gradienti Coniugati dal parametro di discretizzazione per problemi ellittici autoaggiunti. Studieremo inoltre accelerazioni del metodo di tipo “Operator preconditioning”, che permettono di rendere l’algoritmo indipendente da tale parametro di discretizzazione in termini di numero di iterazioni.
Resumo:
Per funzioni di matrice intendiamo generalizzazioni di funzioni scalari che permettono di valutare tali funzioni anche per matrici. Esistono numerosi esempi notevoli di funzioni di matrice: tra queste la funzione esponenziale, la radice quadrata e il segno. Quest'ultima è particolarmente utile per la risoluzione di particolari equazioni matriciali come ad esempio le equazioni di Sylvester e le equazioni di Riccati. In questo elaborato introdurremo il concetto di funzione di matrice per poi soffermarci proprio sulla funzione segno. Oltre che a fornire tutte le definizioni necessarie e analizzare le proprietà che ci aiuteranno a comprendere meglio questa funzione, ci interesseremo all'implementazione di algoritmi che possano calcolare o approssimare la funzione segno di matrice. Un primo metodo sfrutterà la decomposizione di Schur: supponendo di conoscere la decomposizione della matrice, e di trovarci in algebra esatta, questo metodo non fornirà un'approssimazione del segno della suddetta matrice ma l'esatto segno della stessa. Il secondo metodo che studieremo si può definire più come una famiglia di metodi. Vedremo infatti tre algoritmi diversi che però sfruttano tutti l'iterazione di Newton, opportunamente adattata al caso matriciale: il metodo di base, convergente globalmente, in cui applicheremo semplicemente questa iterazione, ed altri due che mireranno a risolvere problemi distinti del metodo di base, ovvero il numero di iterazioni necessarie per giungere alla convergenza (introducendo il concetto di riscaling) e l'alto costo computazionale (sacrificando però la convergenza globale). Grazie all'aiuto di Matlab analizzeremo più nello specifico l'efficienza dei vari algoritmi descritti, ed infine vedremo più nello specifico come utilizzare la funzione segno di matrice per risolvere le equazioni algebriche di Sylvester e di Riccati.
Resumo:
Negli ultimi anni la forte evoluzione tecnologica ha avuto un impatto significativo su un ampio numero di settori ed in particolar modo sull’industria manifatturiera, specie in quelle aziende che hanno saputo cogliere le opportunità di business che essa ha generato. La forte dinamicità dei requisiti con cui si sono trovati a fare i conti gli sviluppatori software, ha portato alla stesura, poco più di vent’anni fa’, dell’oramai noto "Manifesto per lo Sviluppo Agile di Software" all’interno del quale sono introdotti i principi cardini che in un secondo momento hanno contribuito alla formazione dell’approccio Agile. Questa occasione ha senza dubbio cambiato radicalmente l’ottica con cui era sempre stato visto, almeno fino a quel momento, il classico processo utilizzato per concepire e successivamente sviluppare il codice: costituito da una sequenza di fasi predefinite, dove l’insieme dei requisiti era definito nella sua interezza, prima della fase di effettiva implementazione. Il metodo di lavoro più "tradizionale" non rappresenta un approccio sbagliato o inefficace ma è una modalità che si prestava bene ad essere impiegata in scenari dove il concetto di business assumeva connotati diversi rispetto a quello degli ultimi anni, caratterizzati da un’elevata incertezza, repentini cambiamenti e alta probabilità di dover ridefinire i requisiti, al contrario i cambiamenti avvenivano con una scarsa frequenza e per questo risultavano facilmente gestibili. La presente attività di tesi si propone di analizzare i maggiori vantaggi e le principali criticità, che l’impiego di metodologie Agile devono affrontare all’interno di un contesto manifatturiero ed in particolare in un caso di studio reale: un’iniziativa progettuale per la realizzazione di distinte di servizio e istruzioni di montaggio e smontaggio elettroniche all’interno dell’organizzazione Bonfiglioli S.P.A., una multinazionale leader nella produzione e nella vendita di riduttori e motoriduttori.
Resumo:
Lo scopo di questo lavoro di tesi consiste nella realizzazione di fotocatalizzatori a base di nano-TiO2 per potenziali applicazioni nel campo della depurazione delle acque reflue. Nello specifico sono stati sintetizzati nanocompositi accoppiando nano-TiO2 a due materiali grafitici: ossido di grafene (GO), tramite ultrasonicazione (TGO) e nitruro di carbonio grafitico (g-C3N4), attraverso due tecniche: ultrasonicazione e polimerizzazione termica in situ. Per i compositi TGO lo studio relativo alla sintesi è stato rivolto all’ottimizzazione della percentuale in peso di GO. Per i compositi a base di g-C3N4 lo scopo è stato quello di valutare quale dei due metodi di sintesi fosse il più efficace. I materiali ottenuti sono stati caratterizzati dal punto di vista chimico-fisico (DLS-ELS, XRD, Band Gap, BET, SEM, FT-IR, TGA-DSC) e funzionale. La caratterizzazione funzionale è stata eseguita per valutare le prestazioni fotocatalitiche dei fotocatalizzatori nanocompositi utilizzando, come reazione modello, la fotodegradazione di Rodamina B, sotto luce UV e solare. I risultati hanno messo in luce che la percentuale ottimale di GO, nei compositi TGO, è pari al 16%. Inoltre, è stato osservato un effetto sinergico tra TiO2 e GO dove i nanocompositi TGO hanno mostrato maggiore attività fotocatalitiche rispetto alla singola TiO2. I dati fotocatalitici hanno evidenziato che il metodo ottimale per la preparazione dei compositi a base di g-C3N4 e TiO2, è la polimerizzazione termica in situ a 500°C.
Resumo:
Questa tesi di laurea compie uno studio sull’ utilizzo di tecniche di web crawling, web scraping e Natural Language Processing per costruire automaticamente un dataset di documenti e una knowledge base di coppie verbo-oggetto utilizzabile per la classificazione di testi. Dopo una breve introduzione sulle tecniche utilizzate verrà presentato il metodo di generazione, prima in forma teorica e generalizzabile a qualunque classificazione basata su un insieme di argomenti, e poi in modo specifico attraverso un caso di studio: il software SDG Detector. In particolare quest ultimo riguarda l’applicazione pratica del metodo esposto per costruire una raccolta di informazioni utili alla classificazione di documenti in base alla presenza di uno o più Sustainable Development Goals. La parte relativa alla classificazione è curata dal co-autore di questa applicazione, la presente invece si concentra su un’analisi di correttezza e performance basata sull’espansione del dataset e della derivante base di conoscenza.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
In questo elaborato si studiano i risultati di convergenza di due differenti metodi stocastici di discesa dei gradienti applicati a funzioni non convesse. Si confrontano le ipotesi che caratterizzano i due differenti metodi e si paragonano i risultati a cui ogni metodo giunge.
Resumo:
Nel presente elaborato di tesi la metodologia Life Cycle Assessment (che in accordo con le norme ISO 14040-44 permette di quantificare i potenziali impatti sull’ambiente associati ad un bene o servizio lungo tutto il suo ciclo di vita) è applicata a processi appartenenti al settore agro-industriale, con particolare riguardo alla valorizzazione dei coprodotti della filiera olivicola olearia. Nello specifico vengono descritti i risultati di un’analisi del ciclo di vita condotta sul processo di valorizzazione delle sanse di oliva operata dalla Società Agricola A.R.T.E, che ha sede in Puglia. In questo processo, la sansa di olive è trattata mediante digestione anaerobica che permette la produzione di energia elettrica e di un digestato, stabilizzato e utilizzato come ammendante. Il processo analizzato si pone in alternativa sia al metodo di produzione che dà origine a sanse trifasiche, sia allo spandimento delle sanse su suolo agricolo, confrontati in termini di impronta di carbonio. Inoltre nello studio sono state confrontate diverse tecnologie di upgrading di biogas a biometano per valutare quale risulta essere ambientalmente preferibile e potenzialmente installabile nell’azienda A.R.T.E. Il sistema analizzato risulta un'alternativa complessivamente preferibile, da un punto di vista ambientale, sia al metodo di produzione che dà origine a sanse trifasiche, sia allo spandimento delle sanse su suolo agricolo. Il credito ambientale conseguibile mediante il recupero energetico dal biogas prodotto dalla digestione anaerobica delle sanse bifasiche e la produzione di un digestato stabile permettono un beneficio ambientale che controbilancia l’emissione di CO2 attribuibile all’intero sistema. Inoltre lo studio ha permesso una stima di quale tecnologia di raffinazione del biogas a biometano sia potenzialmente installabile nell’azienda A.R.T.E. I risultati mostrano che la tecnologia separazione a membrana risulta meno impattante rispetto alle altre tecnologie di upgrading.