618 resultados para Modellazione MVM HIL
Resumo:
Nowadays, the spreading of the air pollution crisis enhanced by greenhouse gases emission is leading to the worsening of global warming. Recently, several metropolitan cities introduced Zero-Emissions Zones where the use of the Internal Combustion Engine is forbidden to reduce localized pollutants emissions. This is particularly problematic for Plug-in Hybrid Electric Vehicles, which usually work in depleting mode. In order to address these issues, the present thesis presents a viable solution by exploiting vehicular connectivity to retrieve navigation data of the urban event along a selected route. The battery energy needed, in the form of a minimum State of Charge (SoC), is calculated by a Speed Profile Prediction algorithm and a Backward Vehicle Model. That value is then fed to both a Rule-Based Strategy, developed specifically for this application, and an Adaptive Equivalent Consumption Minimization Strategy (A-ECMS). The effectiveness of this approach has been tested with a Connected Hardware-in-the-Loop (C-HiL) on a driving cycle measured on-road, stimulating the predictions with multiple re-routings. However, even if hybrid electric vehicles have been recognized as a valid solution in response to increasingly tight regulations, the reduced engine load and the repeated engine starts and stops may reduce substantially the temperature of the exhaust after-treatment system (EATS), leading to relevant issues related to pollutant emission control. In this context, electrically heated catalysts (EHCs) represent a promising solution to ensure high pollutant conversion efficiency without affecting engine efficiency and performance. This work aims at studying the advantages provided by the introduction of a predictive EHC control function for a light-duty Diesel plug-in hybrid electric vehicle (PHEV) equipped with a Euro 7-oriented EATS. Based on the knowledge of future driving scenarios provided by vehicular connectivity, engine first start can be predicted and therefore an EATS pre-heating phase can be planned.
Resumo:
Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.
Resumo:
In questa tesi si è approfondito dal punto di vista impiantistico ed energetico il primo progetto pilota “e-SAFE”, relativo ad un condominio di edilizia popolare sito a Catania. Il progetto europeo “e-SAFE” mira alla riqualificazione “globale” del patrimonio edilizio UE, con obiettivi quali la decarbonizzazione, tramite raggiungimento di edifici nZEB, e la sicurezza sismica, includendo finalità sociali. È stata svolta la progettazione degli impianti tecnici relativi ai servizi di climatizzazione (riscaldamento e raffrescamento) e produzione acqua calda sanitaria (ACS), tramite adozione di sistema a pompa di calore abbinato ad impianto fotovoltaico provvisto di batterie di accumulo, al fine di massimizzare l’utilizzo di fonti energetiche rinnovabili. Una soluzione innovativa è stata prevista per il sistema ACS tramite bollitori decentralizzati che permettono l’eliminazione della rete di ricircolo e dotano il servizio centralizzato di una certa “individualità”, con adozione di logiche di controllo che consentono di sfruttare al massimo l’energia da fotovoltaico. Sono state quindi svolte analisi energetiche, relative a tre casi impiantistici (senza PV, con PV e con batterie d’accumulo), con modellazione del sistema edificio-impianto adottando una procedura di calcolo orario, per poi confrontare i consumi elettrici, le emissioni e i principali indicatori energetici al fine di dimostrare la bontà delle scelte progettuali effettuate. Si è dimostrato come l’impiego dell’impianto fotovoltaico, abbinato ad un corretto dimensionamento delle batterie di accumulo, consente di ottimizzare la contemporaneità di produzione e consumo di energia. Nonché permette di minimizzare il prelievo di energia elettrica dalla rete nazionale, consumando e stoccando in loco l’elettricità autoprodotta da fonti energetiche totalmente rinnovabili.
Resumo:
L’obbiettivo dell’elaborato che segue è quello di fornire a medici e chirurghi uno strumento di valutazione dei trattamenti di cura, per pazienti affetti da malattie del sistema muscolo scheletrico e della deambulazione. Lo studio incomincia dall’analisi del movimento del paziente tramite strumenti di gate analysis. Impiegando come modello la ricostruzione dell’apparato muscolo scheletrico del paziente, tramite sistemi di modellazione 3Dda TAC (Tomografia Assiale Computerizzata) o risonanza magnetica, realizzando un modello personalizzato che verrà analizzato tramite il software OpenSim. Tramite lo studio del movimento andremo successivamente ad identificare le forze articolari agenti sul ginocchio e grazie alla modellazione FEM (Finite Element Method) verrà realizzato uno strumento di valutazione della strategia operatoria ottimale per il paziente, simulando l’operazione del ginocchio, che agisce sulle forze muscolari variando le forze agenti sull’articolazione e come queste variazioni modificano l’andamento delle tensioni nell’articolazione.
Resumo:
Questo elaborato ha come obiettivo quello di progettare una pinza demolitrice idraulica per macchine operatrici che sia effettivamente producibile, industrializzabile, performante, affidabile ed economicamente competitiva per il mercato internazionale odierno. Dopo una prima parte di introduzione all’oggetto di studio e di comparazione con la concorrenza, vengono mostrati i primi studi sulla cinematica e sugli ingombri dell’attrezzatura eseguiti con l’ausilio del software 2D “DraftSight”. A questo punto si passa alla modellazione in 3D eseguita mediante il software “Solidworks” di tutti i componenti analizzando e giustificando le scelte progettuali che sono state fatte. Vengono quindi riportati tutti i calcoli analitici eseguiti, nonché le verifiche strutturali e l’ottimizzazione topologica realizzate mediante l’ausilio del pacchetto FEM “Simulation” di Solidworks. Infine si valutano i risultati ottenuti dalla progettazione e possibili sviluppi futuri.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
I contenuti principali trattati in questa tesi sono stati ispirati da due lavori presentati nel corso dello scorso decennio. Il primo lavoro, pubblicato nel 2013 da O. A. Manita e S. V. Shaposhnikov, presenta un nuovo risultato di esistenza di soluzioni, nel senso delle distribuzioni, che siano misure di probabilità per PDE paraboliche non lineari del primo e secondo ordine. Vengono fornite condizioni sufficienti per l’esistenza locale e globale di tale tipo di soluzioni per il problema di Cauchy associato a tali equazioni. Equazioni di tale tipo compaiono in maniera del tutto naturale in diversi ambiti applicativi, fra cui la finanza matematica. Nel lavoro presentato da G. Tataru e T. Fisher per Bloomberg nel 2010, viene proposto un modello stocastico per la modellazione del tasso di cambio di valuta estera al fine di prezzare dei particolari tipi di opzione, le opzioni a barriera, con le quali modelli più classici faticano maggiormente. Nella calibrazione di tale modello, per "fittare" il modello ai prezzi delle opzioni scambiate sul mercato, sorge il problema di risolvere un’equazione alle derivate parziali parabolica non lineare integro-differenziale e che dunque appartiene alla classe di PDE citata precedentemente.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
La tesi ricade nell'ambito della modellazione dei solidi ed in particolare nel riconoscimento automatico di lavorazioni su di esso presenti con l'obiettivo principale di risolvere alcune delle problematiche presenti nel software SolidPlus. Quest'ultimo ha come scopo quello di acquisire un solido progettato con un software commerciale di progettazione Cad, di rilevare le possibili lavorazioni presenti sulla parte assimilata e generare un file in un formato riconoscibile dalle macchine a controllo numerico per poterlo lavorare. Nel primo capitolo si introduce la rivoluzione industriale scaturita dall'attuazione dei principi dell'industria 4.0. Nel secondo capitolo si esegue un'analisi di alcune delle soluzioni attualmente presenti in letteratura per rilevare e classificare le lavorazioni, con particolare riferimento a quelle soluzioni che si basano sull'analisi del BRep, modello alla base del Cad. Il terzo capitolo riguarda invece il software oggetto di analisi definendo quelle che sono le funzionalità attualmente presenti e le problematiche riscontrate. Il quarto capitolo consiste nell'esame di alcuni casi di fallimento nel riconoscimento delle lavorazioni e delle relative strategie attuate per la risoluzione delle problematiche. In appendice sono stati introdotti i concetti relativi all'iso 10303, standard alla base dei file d'interscambio tra il software di progettazione Cad e le proprietà dei linguaggi a marcatori, fondamentale per lo scambio dati tra software ufficio e macchina
Resumo:
L’obiettivo principale di questo lavoro di tesi è la progettazione dinamica e la modellazione 3D di una sedia (Blue Whale Chair) multifunzionale adattabile a diverse posizioni. Il progetto nasce da una ricerca specifica sulla postura tradizionale orientale, attraverso un viaggio nell'antico Giappone e nell'antica Cina, evidenziando gli aspetti positivi e negativi della fisiologia posturale. Prendendo spunto dagli aspetti positivi, è stato rielaborato un modello moderno e, attraverso un’opportuna modellazione, sono stati migliorati gli aspetti negativi. Nell'elaborato, inoltre, viene approfondito l'aspetto culturale che a sua volta ha influenzato tali posizioni. A chiosa, vengono studiati in maniera dettagliata alcuni casi studio più emblematici che possono essere utilizzati per lo sviluppo del concept e del design del prodotto. Il design della sedia ricorda la coda di una balena azzurra e il nome del progetto deriva proprio da questa caratteristica. Blue Whale Chair è una sedia che può assumere quattro posizioni con diverse utilità. Infatti, grazie alla sua maneggevolezza, alla sua struttura e ad una corretta progettazione, può essere utilizzata con duplice funzione: sia da tavolo che da sedia. I vari componenti della sedia sono stati progettati in modo tale da risultare regolabili, affinché le persone con diversa statura siano in grado di stare nella posizione più appropriata possibile rispetto alla propria fisiologia.
Resumo:
L’attività di tirocinio è iniziata con lo studio dei sottomarini e dei loro apparati. Una volta individuate le criticità del caso di studio è stata avviata una fase di ricerca bibliografica sui materiali e sui relativi processi tribologici coinvolti nello strisciamento tra vite e madrevite. La ricerca si è poi concentrata sui fenomeni di corrosione e sui materiali adatti a contrastarla; in base ai dati raccolti ne è stata selezionata una coppia per vite e madrevite. A questo punto è stata effettuata la modellazione CAD 3D del sistema di sollevamento, modellando i principali elementi del meccanismo, cioè la vite, la madrevite e i componenti che ospitano cuscinetti e guarnizioni. Contemporaneamente alla fase di disegno è stato effettuato il dimensionamento del sistema vite-madrevite e dei dispositivi necessari al suo funzionamento. Durante questa fase è stata progettata una legge di moto della vite tale da consentire prestazioni equivalenti o migliori del sistema idraulico da sostituire. Per la vite, oltre alle verifiche statiche e a fatica, è stato necessario effettuare le verifiche a carico di punta e di velocità critica. Durante i calcoli riguardanti la fatica, sono stati valutati gli effetti dovuti alla presenza della filettatura, calcolando i coefficienti di concentrazione delle tensioni grazie ad apposite simulazioni FEM. Inoltre, è stato dimensionato il collegamento tramite linguetta al motoriduttore. Dopo aver effettuato il dimensionamento statico della madrevite ed eseguito una verifica dei parametri che ne determinano l’usura, sono stati scelti i componenti commerciali come cuscinetti, guarnizioni e tenute. Terminata la fase di dimensionamento dei componenti è stato effettuato un approfondimento relativo al gruppo motoriduttore e al meccanismo frenante. Nei capitoli conclusivi sono stati valutati aspetti come la gestione dei carichi radiali, i test necessari ad ultimare la progettazione e i possibili sviluppi futuri.
Resumo:
L’aumento crescente della domanda di idrocarburi a livello mondiale ha determinato un progressivo aumento dell’estrazione “offshore” e del trasporto via mare di petrolio. In questo contesto non sono da escludersi incidenti e conseguenti sversamenti di olio in mare. Sversato sulla superficie del mare, l’olio, subisce una serie di trasformazioni chimico-fisiche che prendono il nome di “processi di weathering”. In base alla quantità di prodotto rilasciato, i rilasci di olio possono portare ad ingenti danni ambientali, minando la sopravvivenza degli ecosistemi contaminati dall’olio. La condizione di rilevante criticità ambientale prodotta da uno sversamento accidentale di olio richiede la preparazione di precisi piani di intervento. Tipicamente le azioni intraprese hanno lo scopo di attuare la riduzione della massa di olio galleggiante e di evitare lo spiaggiamento dell’olio. Il presente lavoro di tesi si colloca nell’ambito della modellazione matematica degli sversamenti superficiali di olio in mare, al fine di quantificare l’influenza delle diverse azioni di emergenza sull’olio sversato. Lo scopo della tesi è quello di testare un software denominato ROC - Response Options Calculator, per simulare i fenomeni di weathering degli sversamenti di olio in presenza di azioni di emergenza di diversa tipologia. Il lavoro di tesi è suddiviso come segue: il capitolo 1 ha un ruolo introduttivo; nel capitolo 2 è descritto in dettaglio il software ROC; nel capitolo 3 è presentata l’applicazione del codice ad un caso di studio rappresentato da una piattaforma “offshore”, per la quale sono considerati 3 differenti scenari di rilascio accidentale sulla superficie del mare, a ciascuno dei quali corrisponde una diversa risposta all’emergenza ed un diverso insieme di risorse; nello stesso capitolo è inoltre presentata l’applicazione di un’equazione per la progettazione della risposta meccanica ad uno dei rilasci del caso di studio; il capitolo 4 riporta alcune considerazioni conclusive.
Resumo:
L’obiettivo di questa tesi è quello di esplorare l’utilizzo del paradigma Digital Twin in ambito sanitario, specificatamente nella modellazione degli interventi chirurgici e della gestione delle sale operatorie. Questo progetto, svolto in collaborazione con AUSL Romagna, origina dalla necessità delle strutture ospedaliere di avere a disposizione un quadro completo della situazione dei vari interventi che vengono svolti ogni giorno.
Resumo:
In questa tesi ho analizzato il passaggio dall'ambiente BIM a quello FEM di un impalcato da ponte a travata precompressa, identificando criteri e applicando una metodologia che hanno consentito lo sviluppo di un modello FEM utilizzabile per l'analisi strutturale. Nella tesi si descrive l'opera e il suo dimensionamento, con l'analisi statica e le verifiche strutturali eseguite sia a mano sia sul modello in ambiente FEM importato dall'ambiente BIM. Oltre a ciò, viene modellata l'opera nella sua interezza ed inserita in un contesto reale. La tesi discute l'interoperabilità tra i due software evidenziando vantaggi (modello geometrico di partenza in ambiente FEM, trasferimento di informazioni inserite in ambiente BIM, riduzione dei tempi di modellazione e inserimento proprietà dei materiali e caratteristiche degli oggetti, inserimento armature di precompressione) e criticità (implementazione manuale di alcuni elementi nel modello geometrico, perdita di alcune informazioni, definizione di alcuni parametri, limitata interoperabilità FEM-BIM) della metodologia applicata.
Resumo:
Gli obiettivi di questi tesi sono lo studio comparativo di alcuni DBMS non relazionali e il confronto di diverse soluzioni di modellazione logica e fisica per database non relazionali. Utilizzando come sistemi di gestione due DBMS Document-based non relazionali, MongoDB e CouchDB, ed un DBMS relazionale, Oracle, sarà effettuata un’analisi di diverse soluzione di modellazione logica dei dati in database documentali e uno studio mirato alla scelta degli attributi sui quali costruire indici. In primo luogo verrà definito un semplice caso di studio su cui effettuare i confronto, basato su due entità in relazione 1:N, sulle quali sarà costruito un opportuno carico di lavoro. Idatabase non relazionali sono schema-less, senza schema fisso, ed esiste una libertà maggiore di modellazione. In questo lavoro di tesi i dati verranno modellati secondo le tecniche del Referencing ed Embedding che consistono rispettivamente nell’inserimento di una chiave (riferimento) oppure di un intero sotto-documento (embedding) all’interno di un documento per poter esprimere il concetto di relazione tra diverse entità. Per studiare l’opportunità di indicizzare un attributo, ciascuna entità sarà poi composta da due triplette uguali di attributi definiti con differenti livelli di selettività, con la differenza che su ciascun attributo della seconda sarà costruito un indice. Il carico di lavoro sarà costituito da query definite in modo da poter testare le diverse modellazioni includendo anche predicati di join che non sono solitamente contemplati in modelli documentali. Per ogni tipo di database verranno eseguite le query e registrati i tempi, in modo da poter confrontare le performance dei diversi DBMS sulla base delle operazioni CRUD.