999 resultados para Catene di Markov, MCMC, Algoritmo di Hastings-Metropolis, Campionamento di Gibbs
Resumo:
La Tesi nasce a seguito della richiesta da parte di un’Azienda Socia del Consorzio Esperienza Energia di un servizio di supporto per l’ottimizzazione del proprio Sistema di Gestione dell’Energia (SGE/EnMS) ed in particolare per l’implementazione di metodologie di budgeting più efficienti rispetto a quelle attualmente utilizzate. Questo lavoro di Tesi si è sviluppato in due parti: Nella prima parte viene descritto, a livello generale, che cosa si intende per Sistema di Gestione dell’Energia o Energy Management System e quali sono i vantaggi nell’implementazione di tale sistema in una realtà industriale. Successivamente, viene presentata la norma “UNI CEI EN ISO 50001: Sistemi di Gestione dell’Energia – Requisiti e linee guida per l’uso” attraverso una breve introduzione su quelli che sono i requisiti e gli obiettivi descritti nella norma. Nella seconda parte viene descritta l’implementazione pratica di un SGE presso un’Azienda Socia di CEE, partendo dalla raccolta sia dei dati di consumo a livello globale (LIVELLO A) che a livello di Edificio (LIVELLO B), sia dall'individuazione dei principali Energy Drivers (parametri) che veicolano i consumi. Attraverso questi dati è stato creato un Modello di calcolo per la definizione dei consumi di Riferimento (Energy Baseline); tale Baseline traccia i dati di prestazione energetica da cui si parte per andare a costruire per l’azienda i principali Indicatori Energetici (EnPI, Energy Performance Indicators). Il modello energetico così costruito è stato quindi tarato sui consumi energetici misurati al fine di fornire all'Azienda un algoritmo di stima dei propri consumi energetici futuri, sia mensili che annuali. Il processo di taratura ha dimostrato come il modello energetico dell’azienda che è stato costruito in questa Tesi sia da ritenersi uno strumento affidabile per la previsione dei consumi energetici futuri ipotizzando un certo livello di produzione industriale nel corso dell’anno oggetto di simulazione.
Resumo:
In questo elaborato di tesi sperimentale sono state preparate delle nanofibre elettrofilate di cheratina e PLA caricate con differenti percentuali in peso di grafene ossido. In questo particolare sistema, la dimensione del nano-rinforzo è paragonabile alla dimensione delle nanofibre (circa 150 nm), contrariamente alle convenzionali dimensioni dei rinforzi utilizzati per creare materiali compositi. La matrice polimerica utilizzata è una miscela costituita da cheratina e PLA che ha mostrato interazioni positive di interfase tra i due polimeri. Sono stati studiati gli effetti dei parametri di processo di elettrofilatura sulla morfologia delle nanofibre ottenute. Inoltre, è stata studiata l’influenza del grafene ossido sul processo di elettrofilatura, sulla morfologia delle nanofibrose, sulla viscosità delle miscele dei due polimeri e sulle proprietà termiche e meccaniche delle membrane nanofibrose elettrofilate. Tutte le miscele preparate sono state elettrofilate con successo ed i diametri delle nanofibre ottenute variano da 60-400 nm. I dati sperimentali hanno mostrato una diminuzione del diametro delle nanofibre all’aumentare della concentrazione di grafene ossido dovuta alla diminuzione di viscosità e probabile aumento della conducibilità delle soluzioni contenenti. Le analisi termiche hanno messo in evidenza che c’è un effetto nucleante del grafene ossido che induce, probabilmente, l’organizzazione delle catene proteiche. Le analisi meccaniche in trazione hanno mostrato un aumento del modulo di Young e del carico a rottura delle nanofibre elettrofilate caricate con grafene ossido.
Resumo:
L’attuale panorama motoristico, fortemente guidato dalle normative, prevede l’implementazione di diverse tecnologie che hanno lo scopo di migliorare l’efficienza del motore e ridurre le emissioni di inquinanti e per le quali risulta necessario una corretta progettazione dei condotti di aspirazione. Lo sviluppo ottimale dei condotti risulta un compromesso tra obiettivi contrastanti e in termini matematici si tratta di un’ottimizzazione multiobiettivo. Le simulazioni CFD e gli algoritmi genetici sono stati applicati con successo allo studio di questi problemi, ma la combinazione di questi elementi risulta notevolmente dispendiosa in termini di tempo, in quanto sarebbero necessarie un alto numero di simulazioni. Per ridurre i tempi di calcolo, un set di simulazioni CFD pu`o essere pi`u convenientemente utilizzato per istruire una rete neurale, che una volta opportunamente istruita pu`o essere usata per prevedere gli output delle simulazioni in funzione dei parametri di progetto durante l’ottimizzazione con l’algoritmo genetico, operando quella che viene chiamata una ottimizzazione virtuale. In questa tesi, viene mostrata una metodologia numerica per l’ottimizzazione multi-obiettivo dei condotti di aspirazione, basata su un modello CAD a geometria variabile, le simulazioni fluidodinamiche tridimensionali e una rete neurale combinata con un algoritmo genetico.
Resumo:
Il progressivo esaurimento delle risorse fossili e l’incremento delle problematiche ambientali legate al rilascio di gas serra contribuiscono alla ricerca e all’utilizzo di fonti energetiche alternative. In questo scenario, i dispositivi fotovoltaici organici (OPVs) rappresentano uno dei modi più affascinanti e promettenti per trasformare l’energia solare, una riserva energetica potenzialmente inesauribile, a costo nullo e non inquinante, in energia elettrica. Materiali organici utilizzabili in questi dispositivi sono i polimeri π-coniugati. In quest’ottica, il lavoro è stato focalizzato sulla preparazione di due nuovi polimeri: il primo, contenente unità elettron-donatrici e accettrici in catena principale, ottenuto via polimerizzazione ossidativa in presenza di FeCl3 e successivamente post-funzionalizzato con tributilfosfina per renderlo ionico e idrosolubile; il secondo, a base di politiofene non ionico ma polare, avente funzionalità eteree nelle catene laterali, preparato sfruttando il metodo GRIM. Questi materiali sono stati caratterizzati mediante analisi spettroscopiche e verranno successivamente testati all’interno di celle solari fotovoltaiche organiche aventi configurazione SMOSCs (il primo) e BHJ (il secondo).
Resumo:
Nell’industria chimica i processi di miscelazione hanno un impatto considerevole sulla maggior parte delle operazioni unitarie ed è, pertanto, di fondamentale importanza studiarne i meccanismi. Per tale motivo, durante questo lavoro di tesi sono stati investigati i regimi di miscelazione all’interno di reattori agitati meccanicamente, che contengono miscele bifase gas-liquido. In particolare, l’analisi è stata condotta su un fermentatore realizzato in scala di laboratorio in cui è stata installata una girante a pale concave che prende il nome di BT-6, con la tecnica sperimentale della tomografia a resistenza elettrica (ERT). L’obiettivo del presente elaborato consiste nell’esaminare la distribuzione della fase gassosa con l’utilizzo di suddetta tecnica all’interno del liquido, in quanto parametro chiave per la progettazione e la valutazione delle prestazioni di questo tipo di apparecchiature. Attraverso l’utilizzo della tomografia, si misura la distribuzione di conducibilità della sostanza da cui, mediante l’implementazione di un algoritmo, si risale alla frazione di gas dispersa in fase liquida. Infine, i vari regimi di miscelazione analizzati durante questo lavoro di tesi, sono stati confrontati con prove analoghe condotte in una precedente sperimentazione su una girante di tipo Rushton.
Resumo:
Il carcinoma squamocellulare è il tumore maligno orale più frequente nel gatto e si caratterizza per diagnosi spesso tardiva e prognosi infausta. Il progetto riguarda la ricerca di marker di rilevanza dia-gnostica nel carcinoma squamocellulare orale felino (FOSCC), al fine di sviluppare un test di scree-ning non invasivo. È stata condotta un’analisi retrospettiva delle disregolazioni del gene oncosoppres-sore TP53 in campioni istologici di FOSCC e di una popolazione di controllo (lesioni infiammatorie croniche orali e mucose orali normali feline). Tramite next-generation sequencing (NGS) sono state rilevate mutazioni di TP53 nel 69% dei FOSCC, ed anche l’espressione immunoistochimica della pro-teina p53 era presente nel 69% dei tumori, con una concordanza discreta (77%) fra le due alterazioni. Nella popolazione di controllo erano presenti disregolazioni di p53 solo in due lesioni infiammatorie (3%). Successivamente è stata effettuata un’analisi prospettica con NGS della metilazione del DNA di 17 geni, noti per essere disregolati nel carcinoma squamocellulare orale umano o felino, insieme all’analisi mutazionale di TP53, in campioni istologici di FOSCC e in un gruppo di controllo. Le stesse indagini molecolari sono state svolte in parallelo su campioni di cellule prelevate mediante brushing orale. Utilizzando 6 dei geni indagati differenzialmente metilati nei FOSCC (FLI1, MiR124-1, KIF1A, MAGEC2, ZAP70, MiR363) e lo stato mutazionale diTP53, è stato impostato un algoritmo diagnostico per differenziare i FOSCC dalla mucosa orale non neoplastica. Applicato ai brushing, l’algoritmo è risultato positivo (indicativo di carcinoma) in 24/35 (69%) gatti con FOSCC, contro 2/60 (3%) controlli (sensibilità: 69%; specifici-tà: 97%). La quota di FOSCC identificati era significativamente maggiore nei gatti sottoposti a prelievo in anestesia generale rispetto ai gatti svegli. Questi risultati sono incoraggianti per il riconoscimento precoce del FOSCC tramite brushing orale. Saranno necessari ulteriori studi su casistiche più ampie per validare questa metodica e migliorarne la sensibilità.
Resumo:
Nonostante l'utilizzo di strumenti informatici nella pratica didattica della matematica sia ormai ampiamente diffuso, l'insegnamento dei principi matematici dell'informatica è preso meno in considerazione anche a causa dei pochi punti di contatto nelle "Indicazioni Nazionali" tra le due materie, matematica e informatica, che sono invece intimamente correlate. Questa tesi descrive una attività didattica incentrata sul concetto di calcolabilità e computabilità e basata sul noto formalismo delle Macchine di Turing. É nostra opinione che coinvolgere gli studenti in tali tipologie di attività possa stimolare oltre all'apprendimento di competenze disciplinari, anche lo sviluppo di importanti competenze trasversali, in primis, il problem solving. L’attività proposta nella tesi è stata realizzata in una classe terza di un istituto tecnico economico dove, a seguito di una spiegazione dell’argomento, sono stati svolti due esercizi di gruppo, utilizzando il software \emph{Turing Machine Visualization}, che permette agli studenti e al docente di avere un supporto visuale al dialogo. Al termine dell’attività didattica è stato somministrato agli studenti un questionario che ha permesso di valutare le competenze acquisite da due prospettive distinte: soggettiva e oggettiva. I risultati del questionario sono ampliamente analizzati e discussi nella tesi.
Resumo:
Le apparecchiature elettriche isolate a gas per alta tensione stanno riscuotendo grande successo in particolare per la possibilità di ridurre le dimensioni delle sottostazioni. Sebbene si tratti di strutture meno complesse da realizzare rispetto ai cavi, la causa di guasto risulta prevalentemente imputabile ai difetti dell’isolamento. La diagnostica dei sistemi isolanti è maturata nella comprensione dei fenomeni elettromagnetici coinvolti e delle condizioni a contorno che differenziano i vari difetti, fonti di scariche parziali. Questa tesi affronta il tema delle scariche parziali negli interruttori isolati con gas Esa-Fluoruro di Zolfo. In particolare, propone le basi teoriche per sostenere l’analisi delle misure delle scariche parziali, soprattutto nel caso siano effettuate sul campo. Viene proposto un algoritmo utile ad esaminare le misure delle scariche parziali. Vengono implementati vari metodi grafici e statistici risultati dall’indagine bibliografica. Vengono proposti alcuni grafici a sostegno dell’identificazione di marcatori e indicatori della fisica dei fenomeni.
Resumo:
Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.
Resumo:
Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.
Resumo:
La disponibilità di connessioni a internet poco costose ed affidabili rappresenta un lusso in molti paesi in via di sviluppo e in zone rurali di nazioni sviluppate. L’utilizzo di nuove tecnologie come le blockchain risulta quindi difficile in queste aree, per quanto esse trarrebbero certamente beneficio dalla disponibilità di sistemi di pagamento digitali, decentralizzati e tolleranti ai guasti; inoltre l’uso delle blockchain in zone rurali potrebbe rendere l’abitabilità di tali aree maggiormente appetibile. Una possibile soluzione è costituita dalle blockchain locali, ossia catene a servizio di una ristretta area geografica in cui è disponibile solamente una rete locale, da cui potrebbero ricevere vantaggio sia paesi in via di sviluppo, sia scenari industriali dove si necessiti di blockchain il cui accesso debba avvenire solamente dall’interno dell’intranet aziendale. L’utilità delle blockchain locali risulterebbe tuttavia limitata qualora questi sistemi rimanessero totalmente isolati dal mondo esterno. Utilizzando tecnologie che permettono l’interoperabilità tra blockchain è però possibile interconnettere questi sistemi, rendendo possibile il trasferimento di asset tra diverse chain. Le particolarità degli scenari ipotizzati lasciano però spazio ad alcune vulnerabilità, che, se sfruttate, possono condurre ad attacchi ai danni degli utenti e dell’economia delle blockchain locali. Per risolvere le problematiche individuate, sono stati quindi discussi ed implementati una serie di requisiti per la messa in sicurezza del sistema.
Resumo:
Nella tomografia computerizzata subentrano due fonti principali di rumore nel processo di generazione dell'immagine. Il l rumore legato al disturbo generato dall'elettronica si può modellare con un rumore di Gauss, mentre il rumore dovuto all'interazione dei fotoni con il corpo in scansione può essere modellato con un rumore di Poisson. Partendo da un modello per la rimozione del rumore misto di Poisson-Gauss (modello Infimal), viene applicato l'algoritmo del gradiente proiettato scalato (SGP) con Infimal su vari rumori misti per analizzarne l'efficacia.
Resumo:
L’obbiettivo di questo elaborato è descrivere l'implementazione, attraverso l’uso del programma di calcolo Matlab, di un metodo per ottenere una configurazione di un velivolo dell’aviazione generale che sia rispettosa delle specifiche di progetto e presenti un costo orario minimo. Il metodo utilizzato per progettare l’aeromobile preso come caso di studio è basato sui concetti della progettazione robusta. Con questo metodo di progettazione si cerca di rendere l’aereo il più insensibile possibile alle modifiche di alcuni dei parametri di progetto che possono variare in modo casuale; in particolare ci si è concentrati sul costo orario di una missione, andandone a calcolare la media e la sua deviazione standard. Considerando infine il rapporto segnale-rumore introdotto da Taguchi per la progettazione robusta, viene implementato un metodo di ottimizzazione basato su un algoritmo Particle Swarm Optimization (PSO), attraverso il quale si ottengono i valori più idonei dei parametri di progetto necessari per la realizzazione del futuro velivolo. In dettaglio, i parametri fissati in seguito all’applicazione dell’ottimizzatore sono l’allungamento alare, il carico alare e il rapporto potenza massima motori-peso. A conclusione del lavoro svolto, si può dire che l’ottimizzazione robusta può essere utile in tutti i casi in cui alcuni parametri di progetto non sono definiti in modo univoco, ma possono variare in un modo non prevedibile all’inizio della sviluppo del prodotto.
Resumo:
Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.