973 resultados para studio implementazione modelli continui deflusso
Resumo:
Il processo di sviluppo di un’applicazione comprende più fasi, ognuna strettamente correlata alle altre. Una delle fasi di questo processo è il rilascio del software, che consiste nel rendere disponibile agli utenti l’applicazione caricandone l’eseguibile su un server, sul quale verrà poi eseguita. Per un’azienda di sviluppo software è particolarmente importante automatizzare e standardizzare il processo di rilascio del software, allo scopo di renderlo più veloce e di diminuire il tempo che intercorre fra una modifica e il momento in cui questa viene effettivamente resa disponibile per gli utenti, ottimizzando infine l’impegno degli sviluppatori. La presente tesi descrive l’implementazione di un sistema di Continuous Integration e Continuous Deliveliry scalabile su una software house con più di 900 dipendenti suddivisi in decine di team, ognuno dei quali ha in carico lo sviluppo di vari software. Le applicazioni realizzate dai team sono generalmente microservizi in esecuzione all’interno di container su piattaforma Kubernetes. Sono state quindi valutate le varie alternative per la realizzazione di questo sistema, analizzandone pro e contro, scegliendo infine GitLab per la parte di Continuous Integration e ArgoCD per la parte di Continuous Deployment. Nei vari capitoli viene quindi analizzata l’infrastruttura esistente e vengono illustrati i vantaggi e svantaggi delle varie soluzioni considerate. Per i due software selezionati viene invece descritto il lavoro svolto, con dettagli sul funzionamento del sistema e la configurazione necessaria per il corretto funzionamento dell’intero processo. La soluzione realizzata effettua build, test, code validation e deploy delle applicazioni seguendo un pattern GitOps, con un repository git contenente la configurazione attuale delle applicazioni, permettendo rollback in caso di problematiche e garantendo un alto livello di sicurezza attraverso il mantenimento dello storico della configurazione e della versione delle applicazioni.
Resumo:
L'elaborato descrive l'esperienza di tirocinio svolta nell'azienda Vertiv, dove è stato chiesto di realizzare un simulatore per il calcolo della degradazione delle batterie nella partecipazione al Grid Support. Nella prima parte viene illustrato il panorama energetico attuale, descrivendo il funzionamento generale di un sistema elettrico. Successivamente vengono descritti i gruppi di continuità e le loro modalità di funzionamento. A questo si collega la descrizione dei prodotti dell'azienda che verranno considerati nel simulatore. Vengono descritti i servizi di Grid Support che un cliente può scegliere al fine di ottenere un uso ottimale dell'energia elettrica, e quindi un risparmio, e quelli che aiutano la rete a bilanciare le variazioni di frequenza. Vi è inoltre una descrizione delle batterie, le loro caratteristiche e i parametri fondamentali di questa modalità di immagazzinamento dell'energia. Vengono riportate le principali tipologie delle batterie al Litio, essendo queste quelle utilizzate all'interno del simulatore. L'ultimo capitolo riguarda la descrizione del simulatore; vengono riportate le caratteristiche delle batterie considerate, divise a seconda del fornitore. Il simulatore è diviso in due parti, una chiamata "Frequency Regulation", l'altra "Peak Shaving". Nella prima vengono mostrati i dati di input che possono essere cambiati, la degradazione delle batterie collegata ai servizi FFR e FCR-D, i possibili guadagni che un cliente potrebbe ottenere nel momento in cui firma un contratto per partecipare ad un programma di variazione della frequenza, a seconda del mercato elettrico scelto. Nella seconda i dati di input, la degradazione delle batterie e i possibili risparmi associati al servizio Peak Shaving. Infine vengono riportati degli scenari di esempio per mostrare come un ipotetico cliente possa giocare con i dati di input e confrontare i risultati ottenuti allo scopo di ottenere la miglior soluzione possibile.
Resumo:
La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.
Resumo:
Il presente caso di studio prende forma da una problematica su una metodologia di stampa 3D relativamente nuova, la tecnologia PolyJet. Nella tesi, si verificano ed osservano i limiti di fabbricazione dei modelli ottenuti da questo processo di stampa, dovuti al particolare materiale di supporto che utilizza la tecnologia medesima a differenza di altre tecnologie esistenti. Nei dettagli, si è deciso di stampare dei particolari provini costituiti da strutture porose interconnesse, ottenute tramite superfici TPMS (Triply Periodical Minimal Surfaces), caratterizzate da fori molto piccoli e profondi ed osservare la facilità o la difficoltà nel rimuovere il materiale di supporto da ognuno di essi attraverso le attrezzature disponibili in laboratorio. I risultati ottenuti dall’esperimento hanno mostrato che, riducendo sempre di più i fori delle strutture dei provini, si va a complicare l’azione di rimozione del materiale di supporto, rendendo il processo difficile da compiere come nell’ultimo provino realizzato. Si evince che, nei tre casi osservati, è possibile rimuovere tutto il materiale di supporto dalle strutture, anche nell’ultimo manufatto, con fori di dimensione di un millimetro.
Resumo:
In questa tesi viene discusso il ruolo delle equazioni di diffusione e reazione e delle loro soluzioni di tipo traveling waves in alcuni modelli matematici per le scienze biomediche. Prima di tutto, viene analizzata l’equazione di Fisher-Kolmogorov-Petrovskii-Piskunov, che costituisce il prototipo di pdes di diffusione e reazione ad una specie. In seguito, si determinano condizioni per la nascita di instabilità di Turing nei modelli a due specie interagenti. La nostra attenzione si rivolge poi ai sistemi di diffusione e reazione con termini sorgente degeneri e caratterizzati dal possedere una famiglia di stati di equilibrio che dipende in modo continuo da un insieme di parametri. Si studiano gli effetti che una perturbazione ampia e fortemente localizzata di una delle popolazioni ha sulle soluzioni di tali sistemi e si ricavano condizioni affinché si generino traveling waves. Da ultimo, come applicazione degli studi effettuati, si analizza il modello di Tuckwell-Miura per la cortical spreading depression, un fenomeno in cui un’onda di depolarizzazione si propaga nelle cellule nervose della corteccia cerebrale.
Resumo:
Lo studio effettuato durante il lavoro di tirocinio, da cui nasce la tesi, verte sulla progettazione ed implementazione in ambiente virtuale di una tavola rotante customizzata per la saldatura di supporti per gruppo bobine, contrappeso e guida rulli su anelli calandrati, richiesta da un fornitore dell’azienda Pieri s.r.l. presso la quale si è svolto il tirocinio medesimo. Il fornitore, infatti, si occupa di effettuare operazioni di saldatura su componenti delle macchine avvolgipallet, sviluppate e progettate dall’azienda Pieri. Per soddisfare la richiesta, si è ingegnerizzato il processo tanto che la macchina progettata facilita l’operatore nelle lavorazioni che deve effettuare, riducendo così il suo affaticamento, migliorando i tempi e la qualità di lavorazione. Dopo il tirocinio in azienda, il progetto è stato implementato in ambiente virtuale all’interno del laboratorio di Realtà Virtuale della sede di Ingegneria di Forlì, utilizzando il visore Meta Quest 2, con il quale si è creata un’applicazione che ha permesso al fornitore di fare più opportune valutazioni riguardanti la macchina sviluppata. Nell’ambiente virtuale, infatti, si può interagire non solo tramite visualizzazione, ma esiste la possibilità di gestire il funzionamento della macchina stessa ed apprezzare le configurazioni relative alle tre tipologie di anelli calandrati processati. Inoltre, permette di effettuare training in merito alle operazioni di saldatura e su alcune azioni relative al montaggio e smontaggio della macchina.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di derivare la valutazione di un Total Return Swap (TRS) utilizzando la modellistica stocastica che sta alla base dello studio del pricing di derivati finanziari. I contratti di tipo swap, la cui origine è collocata intorno agli anni ’70, prevedono lo scambio di flussi tra due parti, definiti sulla base del sottostante. In particolare, un Total Return Swap è un derivato finanziario che prevede lo scambio periodico di pagamenti definiti rispetto alla gamba di performance del sottostante e alla gamba di interesse. L’elaborato è composto da un’introduzione alle nozioni matematiche preliminari alla costruzione di un modello di mercato utile a derivare il pricing di un derivato (i.e. Teoria di non arbitraggio, esistenza di una misura martingala e le condizioni sotto le quali questa è unica). Nel secondo capitolo, vengono presentate le definizioni finanziarie necessarie alla descrizione di tali prodotti (e.g. Tassi d’interesse spot e Tassi forward). Nel corso della tesi viene presentata una rassegna della modellistica per l’evoluzione dei tassi descritti da dinamiche di volta in volta più complesse, e.g. Modello di Vasicek, modello di Dothan e approccio di Heath-Jarrow-Morton (HJM). In tale contesto, sono state derivate le formule di valutazione ad Accrual e a Net Present Value (NPV) per il TRS sfruttando la teoria di non arbitraggio, la cui principale differenza diviene dal considerare o meno l’attualizzazione tramite il fattore di sconto stocastico dei flussi di cassa previsti tra le due parti del contratto. Nell’ultimo capitolo, viene presentata un’analisi delle due modalità di pricing effettuata su due TRS rispettivamente su basket di azioni e basket di indici.
Resumo:
Nella presente tesi si è realizzato uno sviluppo di base per l'implementazione di un motore turboalbero aeronautico all’utilizzo ad idrogeno. La parte iniziale dell'elaborato descrive le caratteristiche e i benefici dell’utilizzo di questo combustibile innovativo e riporta, poi, le principali modifiche hardware, presenti in letteratura, necessarie per l’implementazione voluta su un motore fisico. Vengono, poi, illustrati i modelli di combustori necessari per un corretto funzionamento del sistema propulsivo, oltre all’eventuale necessità di uno scambiatore di calore. Nella parte centrale della tesi, invece, é descritta la conversione di un modello MatLab Simulink del motore Allison 250 c18, esplicando e documentando le principali modifiche apportate riguardo alla creazione delle mappe del modello dinamico utile a ricavare le caratteristiche termodinamiche del flusso in camera di combustione e all'uscita da essa. Viene inoltre mostrato il metodo di utilizzo degli script CEA forniti dalla NASA, valido per desumere le proprietà dei gas post combustione, oltre che per la creazione delle funzioni di interpolazioni. Sono state svolte, infine, diverse simulazioni, con lo scopo di ricavare le portate corrette di combustibile ed osservare gli andamenti dei parametri fondamentali del sistema propulsivo, come: le portate elaborate, le potenze generate, le temperature e le pressioni ottenute.
Resumo:
Un forno è un oggetto costituito da una camera vuota, definita cavità, che espone in maniera controllata i materiali posti al suo interno ad un ambiente caldo. Esistono diversi tipi di forni (a gas, elettrici, a microonde, a legna) e sono utilizzati con diversi scopi a seconda delle dimensioni e di come generano il calore. Il prodotto alimentare viene cotto in forno attraverso la trasmissione di calore per irraggiamento, per convezione o per una combinazione di entrambi. Questo processo di riscaldamento richiede un elevato dispendio di energia, di cui solo il 20-25% è utilizzato per riscaldare il cibo in preparazione. I forni nello specifico sono responsabili di circa il 10-12% dell’impatto ambientale complessivo degli edifici civili, collocandosi tra i peggiori elettrodomestici in termini di efficienza energetica. A ragione di ciò, l’industria dei forni è stimolata a sviluppare tecnologie sempre più efficienti, attraverso la ricerca di un miglior controllo della temperatura interna del forno. Sono state redatte due normative europee, EN 60350 e EN 50304, che stabiliscono procedure di raccolta dati e calcolo dell’efficienza energetica di un forno per guidare i costruttori verso una progettazione a minor impatto energetico, che permetta loro di restare competitivi sul mercato. L’obiettivo del seguente lavoro bibliografico è stato quello di descrivere in maniera dettagliata le normative inerenti la determinazione dell’efficienza energetica dei forni domestici. Inoltre, è stata redatta una rassegna sistematica degli studi scientifici riguardanti la valutazione del consumo energico mediante modelli matematici.
Resumo:
Il moto browniano è un argomento estremamente importante nella teoria della probabilità ed è alla base di molti modelli matematici che studiano fenomeni aleatori, in ambiti come la biologia, l'economia e la fisica. In questa tesi si affronta il problema dell'esistenza del moto browniano con un approccio differente rispetto a quello più tradizionale che utilizza il Teorema di estensione di Kolmogorov e il Teorema di continuità di Kolmogorov-Chentsov. Verranno presentate due costruzioni diverse. Con la prima, detta di Lévy-Ciesielski, si otterrà il moto browniano come limite di una successione di processi stocastici continui definiti ricorsivamente. Con la seconda, il moto browniano verrà costruito tramite la convergenza in legge di passeggiate aleatorie interpolate e riscalate, mediante il cosiddetto principio di invarianza di Donsker. Grazie a quest'ultima costruzione si potrà in particolare definire la misura di Wiener.
Resumo:
Lo sviluppo dei dispositivi mobili negli ultimi anni ha permesso la creazione di pedometri efficienti. Uno dei problemi principali nella realizzazione dei contapassi `e l’accuratezza e la precisione nei risultati. Il seguente elaborato fornisce un’analisi dettagliata dei vari studi presenti in rete a riguardo. La ricerca ha avuto scopo di riassumere le diverse scelte implementative, confrontandole tra di loro e di risaltare i punti in comune fornendo un’analisi sull’effettiva efficacia di ognuna di esse. Il focus di questo studio si concentrer`a sull’analisi di algoritmi per la rilevazione di passi calcolati non in tempo reale. L’elaborato `e stato diviso in quattro differenti fasi. Durante la prima fase vengono esposti i principali studi e le principali metodologie relative all’argomento appena descritto. Nella seconda fase viene presentata la Tassonomia, cio`e una classificazione ordinata di concetti secondo determinati criteri. Nella terza fase `e stata quindi sviluppata una applicazione Android in cui vengono implementanti gli algoritmi descritti nelle fasi precedenti. Nell’ultima fase viene testata l’applicazione attraverso l’uso di specifici test confrontando tra loro i diversi algoritmi proposti.
Resumo:
Il mio elaborato di tesi è basato sull'analisi generale dei modelli matematici alla base delle epidemie e lo studio dei punti di equilibrio dei sistemi che descrivono tali modelli. Il primo capitolo fornisce una descrizione degli elementi di base per lo studio che verrà poi affrontato nei capitoli successivi; nel capitolo in questione ci si riduce a introdurre nomenclatura, parametri e assunzioni di base. Nei capitoli secondo e terzo vengono esposti due tipi di modelli SIR diversi (epidemico e endemico), modelli alla base dell'epidemiologia che spiegano, sotto determinate ipotesi, il comportamento degli individui all'esplodere di una epidemia e il loro cambiamento di compartimento (suscettibile, infetto o rimosso) nel tempo. Di essi viene costruito il sistema di equazioni differenziali e analizzato il comportamento asintotico, per poi studiare i punti di equilibrio e la loro stabilità. Nel capitolo quarto viene analizzato allo stesso modo il modello SEIR, interessante perché fornisce una visione leggermente più sofisticata e vicina alla realtà, poiché tra i compartimenti possibili si suppone esistere anche un compartimento degli esposti, cioè di coloro che sono stati infettati ma che ancora non sono in grado di trasmettere la malattia. L'appendice finale illustra l'apparato matematico utile allo studio di questi modelli: le Equazioni Differenziali infatti sono uno strumento necessario per la descrizione dei fenomeni naturali e per lo studio della stabilità dei punti di equilibrio.
Resumo:
L’inquinamento olfattivo, negli ultimi anni, ha acquisito rilevanza a livello istituzionale e varie Regioni italiane hanno adottato Regolamenti e Linee Guida in materia. Queste, individuano gli studi di impatto olfattivo come strumenti per valutare la necessità di interventi correttivi, a seguito di simulazioni effettuate con modelli di dispersione atmosferica. In studi di primo livello uno dei modelli utilizzabili è quello gaussiano, con cui vengono ricercate le concentrazioni di inquinante massime possibili nelle situazioni di simulazione considerate, a scopo di screening. In questo elaborato gli output di queste simulazioni saranno confrontati e correlati con quelli ottenuti da un modello di dispersione non stazionario di tipo lagrangiano a particelle, utilizzato invece negli studi di impatto olfattivo di secondo livello. Le variabili studiate sono state la concentrazione odorigena di picco, confrontata con il 98° percentile delle concentrazioni di picco orario su base annua, e la relativa distanza dalla sorgente. Il setting sperimentale presume una singola sorgente puntiforme, di cui è stata variata l’altezza della ciminiera. Per tutte le altezze emissive considerate, ogni run di simulazione è stato effettuato con entrambi i modelli. Le operazioni di regressione eseguite sugli output così ottenuti, hanno evidenziato delle buone funzioni di correlazione per entrambe le variabili considerate, valutate attraverso il parametro R2. Questo permette un’analisi di impatto olfattivo di primo livello molto più accurata, poiché, utilizzando all’atto pratico un modello di tipo gaussiano, si possono stimare da esso i risultati che si sarebbero ottenuti con l’applicazione di quello lagrangiano, più complesso e in linea con quanto richiesto dalla normativa. Si ottengono, quindi, valutazioni di impatto più aderenti al territorio analizzato senza, tuttavia, la necessità di utenti con competenze tecniche specifiche e di strumenti informatici con potenze di calcolo molto elevate.
Resumo:
La Tesi presenta un metodo per valutare il livello di reversibilità e circolarità dei componenti edili. Il concetto cardine dello studio è il Design for Disassembly (DfD), definibile come un approccio alla progettazione di organismi edilizi secondo criteri costruttivi volti a facilitare successivi cambiamenti e smantellamenti (completi o parziali), consentendo il riutilizzo dei componenti, al fine di ridurre l’impatto ambientale degli interventi. Attualmente, diverse ricerche in ambito scientifico si dedicano all’approfondimento di questa tematica, correlandola ad altri concetti come la metodologia del Building Information Modeling (BIM), che consente di digitalizzare il processo progettuale, la sua realizzazione e la sua gestione attraverso modelli. Dopo l’analisi dello stato dell’arte, il lavoro è giunto alla definizione di un insieme di parametri idonei per essere introdotti in un modello informativo, in grado di rappresentare la circolarità del componente in termini di DfD. Per ogni elemento del componente analizzato viene assegnato un valore numerico (variabile da 0,1 a 1) a ogni parametro. Tramite l’utilizzo di una formula elaborata nell’ambito di precedenti ricerche svolte dal Dipartimento di Architettura dell'Università di Bologna, opportunamente modificata, si ottiene un indice sintetico finale denominato “Express Building Circularity Indicators” (EBCI). Il metodo di analisi proposto come strumento a supporto del processo progettuale è stato validato tramite l’applicazione a diverse soluzioni di facciata per l’efficientamento energetico di un fabbricato selezionato come caso di studio italiano dal progetto Europeo Horizon 2020 "DRIVE 0 – Driving decarbonization of the EU building stock by enhancing a consumer centred and locally based circular renovation process". I risultati ottenuti hanno consentito di verificare la replicabilità del processo digitalizzato a diverse soluzioni costruttive e l’affidabilità del metodo di valutazione del grado di circolarità.
Resumo:
Lo scopo di questo studio è l’implementazione di un sistema di navigazione autonomo in grado di calcolare la traiettoria di un mezzo aereo, noti che siano a priori dei punti di posizione detti waypoint. A partire da questa traiettoria, è possibile ottenere la sua rappresentazione in un codice che mette a disposizione immagini satellitari e ricavare le viste del terreno sorvolato in una serie di punti calcolati, in modo da garantire in ogni sequenza la presenza di elementi comuni rispetto a quella precedente. Lo scopo della realizzazione di questa banca dati è rendere possibili futuri sviluppi di algoritmi di navigazione basati su deep learning e reti neurali. Le immagini virtuali ottenute del terreno saranno in futuro applicate alla navigazione autonoma per agricoltura di precisione mediante droni. Per lo studio condotto è stato simulato un generico velivolo, con o senza pilota, dotato di una videocamera fissata su una sospensione cardanica a tre assi (gimbal). La tesi, dunque, introduce ai più comuni metodi di determinazione della posizione dei velivoli e alle più recenti soluzioni basate su algoritmi di Deep Learning e sistemi vision-based con reti neurali e segue in un approfondimento sul metodo di conversione degli angoli e sulla teoria matematica che ne sta alla base. Successivamente, analizza nel dettaglio il processo di simulazione della navigazione autonoma e della determinazione della traiettoria in ambiente software Matlab e Simulink, procedendo nell’analisi di alcuni casi di studio in ambienti realistici. L’elaborato si conclude con un breve riepilogo di quanto svolto e con alcune considerazioni sugli sviluppi futuri.