882 resultados para Aderenza Modelli Pseudoslittamenti Translohr Metropolitane Monorotaie
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
Il lavoro presentato in questa Tesi si basa sul calcolo di modelli dinamici per Galassie Sferoidali Nane studiando il problema mediante l'utilizzo di funzioni di distribuzione. Si è trattato un tipo di funzioni di distribuzione, "Action-Based distribution functions", le quali sono funzioni delle sole variabili azione. Fornax è stata descritta con un'appropriata funzione di distribuzione e il problema della costruzione di modelli dinamici è stato affrontato assumendo sia un alone di materia oscura con distribuzione di densità costante nelle regioni interne sia un alone con cuspide. Per semplicità è stata assunta simmetria sferica e non è stato calcolato esplicitamente il potenziale gravitazionale della componente stellare (le stelle sono traccianti in un potenziale gravitazionale fissato). Tramite un diretto confronto con alcune osservabili, quali il profilo di densità stellare proiettata e il profilo di dispersione di velocità lungo la linea di vista, sono stati trovati alcuni modelli rappresentativi della dinamica di Fornax. Modelli calcolati tramite funzioni di distribuzione basati su azioni permettono di determinare in maniera autoconsistente profili di anisotropia. Tutti i modelli calcolati sono caratterizzati dal possedere un profilo di anisotropia con forte anisotropia tangenziale. Sono state poi comparate le stime di materia oscura di questi modelli con i più comuni e usati stimatori di massa in letteratura. E stato inoltre stimato il rapporto tra la massa totale del sistema (componente stellare e materia oscura) e la componente stellare di Fornax, entro 1600 pc ed entro i 3 kpc. Come esplorazione preliminare, in questo lavoro abbiamo anche presentato anche alcuni esempi di modelli sferici a due componenti in cui il campo gravitazionale è determinato dall'autogravità delle stelle e da un potenziale esterno che rappresenta l'alone di materia oscura.
Resumo:
L’interruzione dell’attività di formazione stellare nelle galassie attraverso l’azione di venti guidati dalla potenza dell’AGN e/o dall’attività di starburst è una fase prevista da tutti i modelli di coevoluzione tra i buchi neri super massicci e la galassia ospite. La recente scoperta di venti molecolari massivi in alcune ULIRG locali ha fornito una prova forte a favore dell’esistenza del meccanismo di feedback negativo nelle galassie. Ad oggi non è chiaro il ruolo che l'attività di AGN e di starburst hanno nella produzione dei venti: tuttavia, la maggior parte delle ULIRG in cui sono stati osservati i venti molecolari presentano elevati tassi e velocità di outflow, suggerendo che l'AGN giochi un ruolo principale. IRAS 13120-5453 rappresenta un caso particolare: la sua attività e dominata dalla formazione stellare, ma sembra anche ospitare un AGN oscurato al suo interno. Tuttavia, non presenta elevati tassi di outflow e velocità dei venti: non è quindi chiaro quale dei due fenomeni vi sia all'origine. In questo lavoro di tesi si è operata un'analisi multibanda di questa sorgente con lo scopo di studiarne le principali proprietà fisiche. Lo studio in banda X attraverso l'analisi dei dati provenienti dai satelliti XMM-Newton, Chandra e NuSTAR ha permesso di conoscere parametri importanti come il grado di oscuramento della sorgente e la potenza dell'AGN. Con l'analisi in banda IR, è stato possibile conoscere il contributo dell'AGN e della starburst alla luminosità IR e i principali parametri fisici di questa galassia. L’obiettivo di tale lavoro è quello di capire il ruolo svolto da questi due principali fenomeni e quale possa essere la connessione con i venti molecolari.
Resumo:
L’anguilla europea, Anguilla anguilla, è una specie gravemente minacciata, sia da impatti diretti legati al sovrasfruttamento della specie a tutti gli stadi del ciclo vitale, che indiretti come l’urbanizzazione costiera e la perdita di habitat lagunari. Negli ultimi 45 anni è stata documentata una riduzione del tasso di reclutamento di anguilla europea del 90%. Lo scopo di questo studio è stato approfondire le modalità riproduttive di A. anguilla per via indiretta, attraverso un’analisi di paternità. Il Centro di ricerca universitario di Cesenatico (Laboratori di Acquacoltura ed Igiene delle Produzioni Ittiche – Università di Bologna) ha avviato le prime sperimentazioni su A. anguilla, al fine di mettere a punto un protocollo di riproduzione artificiale. Nell’estate 2015 i ricercatori hanno ottenuto sette riproduzioni spontanee in ambiente controllato, da queste sono state campionate casualmente e genotipizzate circa 40 larve per ogni mandata riproduttiva e i relativi riproduttori per condurre l’analisi di paternità. In ogni riproduzione è stata utilizzata sempre e soltanto una femmina e tre o quattro maschi; le analisi genetiche, condotte utilizzando 9 loci microsatelliti, si sono focalizzate sull’individuazione dei padri e l’assegnamento di paternità è avvenuto con un livello di confidenza medio dell’89%. Dalle analisi effettuate è emerso che: 1) i maschi di questa specie, precedentemente sottoposti a stimolazioni ormonali per indurne la riproduzione e la fertilità, sono in grado di partecipare con successo a più di una riproduzione; 2) più esemplari riescono a fecondare gli ovociti di una sola femmina e sembrano stabilirsi modelli gerarchici di dominanza in quanto si è osservato generalmente che un maschio prevale sugli altri, generando da solo più del 50% della prole. Questo studio pilota rappresenta, quindi, un punto di partenza per approfondimenti futuri sulle modalità riproduttive dell’anguilla europea.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
Questa tesi di laurea è uno studio magmatologico, sedimentologico e morfostrutturale dei depositi dell’eruzione del Vesuvio del 1944, con particolare riferimento ai depositi di valanghe ardenti associati ad essa. Lo studio è stato affrontato utilizzando metodologie petrografiche, di chimica dei minerali e geotermo-barometriche al fine di ricavare informazioni sul sistema magmatico e sulla dinamica eruttiva nel corso dell’eruzione. I dati petrochimici e l’utilizzo di modelli geotermo-barometrici, unitamente alle informazioni dalla letteratura, indicano che il fattore di trigger che ha determinato il passaggio dalla iniziale effusione di colate laviche alle successive intense fasi di attività esplosiva ultrastromboliana è rappresentato dalla risalita di magma meno evoluto e più ricco in volatili dalla camera magmatica profonda (11-22 km) verso quella più superficiale (circa 3 km) dove ha interagito con il magma lì presente. Durante queste fasi a maggiore esplosività si è avuto sulla parte sommitale del cono un rapido accumulo di materiale ad elevata temperatura e l’instaurarsi di condizioni di overloading dei fianchi con aumento dell’angolo di pendio e conseguente instabilità. Ciò ha verosimilmente determinato la generazione di flussi di valanghe ardenti per rimobilizzazione sin-deposizionale del materiale piroclastico da caduta, probabilmente in seguito ad eventi sismici come elementi di innesco. I flussi di valanghe ardenti del 1944 sono stati interpretati come flussi granulari secchi, in base ai dati sedimentologici e vulcanologici raccolti nel corso dell’attività di terreno, rendendo possibile l’applicazione dei modelli elaborati da Castioni (2015) per la stima della velocità massima del flusso e degli assi maggiore e minore del deposito corrispondente. Sono state ricavate velocità che variano da un minimo di circa 4 m/s ad un massimo di circa 16 m/s in un range che è tipico di flussi granulari in ambiente vulcanico. Le variazioni della velocità sono state messe in relazione con la morfologia del pendio, il tipo di materiale coinvolto nel processo di rimobilizzazione e l’organizzazione interna del flusso, evidenziando in particolare come le maggiori lunghezze siano raggiunte dai flussi che hanno la possibilità di scorrere su pendii più omogenei e con più ridotte variazioni dell'angolo di pendio. La definizione di valori di velocità per i flussi di valanghe ardenti dell'eruzione del 1994 fornisce un ulteriore elemento utile per la valutazione della pericolosità vulcanica del Vesuvio.
Resumo:
Sviluppo di un modello per la simulazione della Risposta Cardiovascolare alla Contropulsazione Esterna.
Resumo:
Le colate detritiche sono manifestazioni parossistiche con trasporto impulsivo di sedimenti lungo la rete idrografica minore che presentano un elevato potere distruttivo. In questo lavoro di tesi si è cercato di descrivere inizialmente le caratteristiche tipiche delle colate di detrito, e le condizioni climatiche e geomorfologiche che tendono a favorirne l’innesco. Verranno poi analizzati, i casi relativi all’Appennino bolognese, prendendo come riferimento le colate rapide di detrito avvenute in località Serraglio (Baragazza) nei pressi del comune di Castiglione dei Pepoli. Nello specifico verrà indagato il fenomeno avvenuto il 31/01/2014, per il quale sono stati effettuati numerosi rilievi morfometrici che hanno portato ad individuare una geometria di dettaglio del canale di flusso e della nicchia di frana, per poter ricostruire i volumi di materiale mobilizzato. In contemporanea alle misure morfometriche si sono effettuate delle indagini sismiche volte a stimare lo spessore della coltre di alterazione presente all’interno del canale prima dell’evento, e a monte della nicchia di frana. Successivamente si è cercato di correlare le misure H/V con le prove MASW effettuate ,senza successo, ciò è probabilmente dovuto dalla difficoltà di indagare spessori così sottili con le MASW. Perciò utilizzando le indagini H/V si è tentato di ricostruire il modello geologico – tecnico alla scala del versante. Infine si è cercato di modellizzare il fenomeno utilizzando il software Dan-W con il quale si sono testati vari modelli reologici fra i quali si sono dimostrati più realistici, in riferimento al caso in esame, il modello frizionale ed il modello di Voellmy. Per questi due modelli è stata quindi effettuata la calibrazione dei parametri, in riferimento dei quali si è visto che, con il modello di Voellmy si è ottenuto un buon valore della distanza percorsa dalla colata, ma una stima delle velocità abbastanza elevate. Il modello frizionale invece ha portato ad una buona stima degli spessori dei depositi, ma sottostimando la distanza che avrebbe potuto percorrere la colata se non avesse incontrato ostacoli.
Resumo:
Il progresso scientifico e le innovazioni tecnologiche nei campi dell'elettronica, informatica e telecomunicazioni, stanno aprendo la strada a nuove visioni e concetti. L'obiettivo della tesi è quello d'introdurre il modello del Cloud computing per rendere possibile l'attuale visione di Internet of Thing. Nel primo capitolo si introduce Ubiquitous computing come un nuovo modo di vedere i computer, cercando di fare chiarezza sulla sua definizione, la sua nascita e fornendo un breve quadro storico. Nel secondo capitolo viene presentata la visione di Internet of Thing (Internet delle “cose”) che si avvale di concetti e di problematiche in parte già considerate con Ubiquitous computing. Internet of Thing è una visione in cui la rete Internet viene estesa agli oggetti di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati ambientali sono solo alcuni esempi. Per realizzare questo tipo di applicazioni le tecnologie wireless sono da considerare necessarie, sebbene questa visione non assuma nessuna specifica tecnologia di comunicazione. Inoltre, anche schede di sviluppo possono agevolare la prototipazione di tali applicazioni. Nel terzo capitolo si presenta Cloud computing come modello di business per utilizzare su richiesta risorse computazionali. Nel capitolo, vengono inizialmente descritte le caratteristiche principali e i vari tipi di modelli di servizio, poi viene argomentato il ruolo che i servizi di Cloud hanno per Internet of Thing. Questo modello permette di accelerare lo sviluppo e la distribuzione di applicazioni di Internet of Thing, mettendo a disposizione capacità di storage e di calcolo per l'elaborazione distribuita dell'enorme quantità di dati prodotta da sensori e dispositivi vari. Infine, nell'ultimo capitolo viene considerato, come esempio pratico, l'integrazione di tecnologie di Cloud computing in una applicazione IoT. Il caso di studio riguarda il monitoraggio remoto dei parametri vitali, considerando Raspberry Pi e la piattaforma e-Health sviluppata da Cooking Hacks per lo sviluppo di un sistema embedded, e utilizzando PubNub come servizio di Cloud per distribuire i dati ottenuti dai sensori. Il caso di studio metterà in evidenza sia i vantaggi sia le eventuali problematiche che possono scaturire utilizzando servizi di Cloud in applicazioni IoT.
Resumo:
L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.