238 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale
Resumo:
Questo elaborato ha il fine di approfondire ed esplicitare criticità e leve del sempre crescente fenomeno collaborativo detto Sharing Economy. In appendice il Business Plan della startup Dimitto: progetto svolto durante il corso di Creazione D'Impresa - Riccardo Fini
Resumo:
L’obiettivo principale della presente tesi è quello di realizzare un progetto di miglioramento sismico per la porzione del secondo chiostro dell’ ex convento di S. Francesco, a cui è stato affiancato un progetto architettonico di riqualificazione di alcune aree al momento non valorizzate e un progetto di prevenzione incendi. In seguito all’analisi dell’evoluzione storica è stata effettuata una caratterizzazione costruttiva degli elementi strutturali tramite rilievi e sono state quindi individuate le vulnerabilità strutturali che potrebbero portare, in caso di sisma, all’attivazione dei cinematismi di collasso. Si è poi svolta un’analisi del livello di sicurezza sismica secondo il livello di valutazione LV1, cioè un’analisi qualitativa secondo modelli semplificati, applicando il modello semplificato proposto dalle Linee Guida per la tipologia “Palazzi, ville e altre strutture con pareti di spina ed orizzontamenti intermedi”, che ha lo scopo di fornire come risultato un indice della sicurezza sismica dell’intero edificio. I risultati della valutazione globale sono affiancati dai risultati ottenuti tramite l’applicazione delle tabelle CINE, che esemplificano e sintetizzano gli aspetti significati dei cinematismi di collasso e permettono di effettuare delle verifiche locali. Sulla base dei risultati ottenuti, sono stati progettati diversi interventi strutturali, con lo scopo di migliorare la sicurezza sismica dell’edificio, concepiti con lo scopo di eliminare o limitare le vulnerabilità dell’edificio, con particolare attenzione ai temi della scatolarità dell’edificio e della presenza di connessioni tra strutture verticali e orizzontali. Per verificare l’efficacia di questi interventi sono state ripetute le verifiche del cinematismi locali tramite le tabelle CINE e i risultati sono stati positivi, in quanto l’accelerazione necessaria per l’attivazione dei cinematismi ora risulta essere uguale o superiore a quella caratteristica del sito.
Resumo:
Le prestazioni dei motori a combustione interna sono fortemente influenzate dalla formazione di un film fluido, a seguito dell'impatto di uno spray con una parete. Nell'ottica di favorire la formazione della miscela e di ridurre le emissioni, lo studio approfondito di tale fenomeno deve essere supportato da un processo di simulazione assistita dal calcolatore. Pertanto, la Fluidodinamica Computazionale (Computational Fluid Dynamics, CFD) ed i modelli ad essa associati rappresentano al giorno d'oggi uno strumento vantaggioso e sempre più utilizzato. In questo ambito si colloca il presente lavoro di tesi, che si propone di validare il modello di film fluido implementato nel software OpenFOAM-2.3.0, confrontando i risultati ottenuti, in termini di altezza del film fluido, con quelli del caso sperimentale di Le Coz et al.
Resumo:
Il presente lavoro di tesi è stato sviluppato presso l’azienda “Nuova Star” SpA di Zola Predosa, leader mondiale nella produzione di meccanismi di apertura per porte di forni domestici. Gli scopi principali di questi meccanismi sono quelli di bilanciare il peso della porta durante l’apertura della stessa e di generare, a porta chiusa, una opportuna forza di ritenuta che la tenga pressata contro le guarnizioni del forno. L’azienda produce una notevole varietà di modelli, realizzati mediante componenti in lamiera stampata che si basano su varianti dei medesimi meccanismi di base, in particolare un manovellismo di spinta (per ottenere il bilanciamento) e un sistema camma-punteria (per garantire la chiusura). In un’ottica di sperimentazione e innovazione del prodotto, l’azienda ha quindi espresso il desiderio di realizzare un nuovo modello, concepito attraverso un sistema inedito e originale e che allo stesso tempo risultasse più economico rispetto ai vari modelli attualmente in produzione. In particolare questo nuovo meccanismo dovrà sfruttare un sistema a cavi. L’obiettivo di questa tesi è quindi quello di ripensare il meccanismo attualmente esistente, analizzando le proprietà offerte da un sistema a cavi per sfruttarne i possibili vantaggi, sia in termini di funzionamento che di economicità del prodotto finale. A tale scopo si partirà con l’analisi concettuale dell’architettura e del funzionamento dei meccanismi su cui si basano i modelli attualmente in produzione. Si passerà poi a una seconda fase di progettazione concettuale, nella quale verranno ideate e proposte varie soluzioni alternative. Seguirà quindi uno studio articolato nei seguenti punti: - Analisi cinematica e cinetostatica - Analisi e scelta dei parametri ottimali di funzionamento - Disegno costruttivo dei vari componenti - Simulazione multibody del nuovo meccanismo tramite il software MSC Adams;
Resumo:
L’obbiettivo che si pone questo lavoro è quello di combinare in un unico impianto due tecnologie utilizzate per scopi differenti (impianto integrato): un impianto di climatizzazione geotermico a bassa entalpia di tipo open-loop ed un impianto di bonifica delle acque di falda di tipo Pump&Treat. Il sito selezionato per lo studio è ubicato in via Lombardia, nell’area industriale di Ozzano dell’Emilia (BO), ed è definito “Ex stabilimento Ot-Gal”: si tratta di una galvanotecnica con trattamento di metalli, dismessa alla fine degli anni ’90. Durante una precedente fase di caratterizzazione del sito condotta dalla ditta Geo-Net Srl, sono stati rilevati in falda dei superamenti delle CSC previste dal D.lgs. 152/2006 di alcuni contaminanti, in particolare Tricloroetilene (TCE) e 1.1-Dicloroetilene (1.1-DCE). Successivamente, nel 2010-2011, Geo-net Srl ha eseguito una parziale bonifica delle acque di falda attraverso l’utilizzo di un impianto Pump and Treat. Grazie a tutti i dati pregressi riguardanti i monitoraggi, le prove e i sondaggi, messi a disposizione per questo studio da Geo-Net Srl, è stato possibile eseguire una sperimentazione teorica, in forma di modellazione numerica di flusso e trasporto, dell’impianto integrato oggetto di studio. La sperimentazione è stata effettuata attraverso l’utilizzo di modelli numerici basati sul codice di calcolo MODFLOW e su codici ad esso comunemente associati, quali MODPATH e MT3DMS. L’analisi dei risultati ottenuti ha permesso di valutare in modo accurato l’integrazione di queste due tecnologie combinate in unico impianto. In particolare, la bonifica all’interno del sito avviene dopo 15 dalla messa in attività. Sono stati anche confrontati i costi da sostenere per la realizzazione e l’esercizio dell’impianto integrato rispetto a quelli di un impianto tradizionale. Tale confronto ha mostrato che l’ammortamento dell’impianto integrato avviene in 13 anni e che i restanti 7 anni di esercizio producono un risparmio economico.
Resumo:
La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.
Resumo:
Lo studio intrapreso si è posto come obiettivo la caratterizzazione dal punto di vista elettrico dei materiali coinvolti nella realizzazione di accessori per applicazioni in HVDC, in particolare mescole isolanti, semiconduttive e varioresistive. La necessità di un lavoro di questo tipo viene giustificata dalla costante espansione dei sistemi in DC nella trasmissione dell’energia elettrica, i quali presentano caratteristiche fisiche che si differenziano sensibilmente da quelle tipiche dei tradizionali sistemi in AC, dunque richiedono componenti e materiali opportunamente progettati per garantire condizioni di servizio sicure e affidabili. L’obiettivo della trattazione consiste nello studio di analogie e differenze tra le proprietà elettriche fornite da prove su diverse configurazioni di provini, nella fattispecie di tipo piano e cilindrico cavo. In primo luogo si studiano i provini di tipo piano al fine di ricavare informazioni basilari sul materiale e sulla mescola che lo costituisce e di prendere decisioni relative al proseguimento dei test. Dopo aver effettuato un sufficiente numero di test su varie tipologie di provini piani e aver riconosciuto le mescole più performanti dal punto di vista elettrico, meccanico e termico, si procede alla realizzazione di provini cilindrici stampati, su cui si intraprendono le medesime misure effettuate per la configurazione piana. Questa seconda fase di caratterizzazione è fondamentale, in quanto consente di verificare che le proprietà già studiate su piastra si conservino in una geometria molto più simile a quella assunta dal prodotto finale evitando di sostenere costi onerosi per la produzione di un accessorio full-size. Il lavoro è stato svolto nel laboratorio elettrico di alta tensione della divisione R&D del gruppo Prysmian di Milano, leader mondiale nella produzione di sistemi in cavo per alte e altissime tensioni.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
Lo scopo di questa tesi è la trattazione della materia oscura partendo dalle evidenze sperimentali, ripercorrendo i possibili costituenti e riportando dati relativi a rivelazioni dirette ed indirette. Il primo capitolo è dedicato alla discussione delle due più importanti evidenze della presenza di materia oscura, ossia le curve di rotazione ed il Bullet Cluster, che risultano entrambe interazioni di tipo gravitazionale. Si provvede inoltre a fornire le due più plausibili soluzioni in grado di spiegare i risultati ottenuti dalle osservazioni sperimentali e a discutere la loro validità come modello per la descrizione di tali fenomeni. Il capitolo successivo è volto all'esposizione delle possibili particelle che compongono la materia oscura, discutendo quali siano le più probabili, e alla spiegazione della loro creazione nell'Universo primordiale. La terza parte è dedicata alle rilevazioni dirette, consistenti nello scattering fra particelle di materia oscura e nuclei, ed in particolare all'analisi del modello dei neutralini. Vengono poi riportati nello stesso capitolo i risultati di tali rilevazioni, con riferimento agli esperimenti CDMS II, XENON100 e LUX. Nel quarto capitolo si tratteranno i risultati delle rilevazioni indirette, ossia osservazioni di processi derivanti dall'annichilazione di materia oscura, e verranno riportati i risultati degli esperimenti più importanti, fra cui i più recenti sono Fermi-LAT e CTA (ancora in sviluppo). L'ultimo paragrafo è riservato ad un breve riassunto dei risultati e delle ipotesi trattate, per raccogliere i dati più importanti e fornire una visione generale della materia oscura.
Resumo:
Il Modello di Hopfield è un tentativo di modellizzare il comportamento di una memoria associativa come proprietà emergente di un network costituito da unità a due stati interagenti tra loro, e costituisce un esempio di come gli strumenti della meccanica statistica possano essere applicati anche al campo delle reti neurali. Nel presente elaborato viene esposta l'analogia tra il Modello di Hopfield e il Modello di Ising nel contesto delle transizioni di fase, applicando a entrambi i modelli la teoria di campo medio. Viene esposta la dinamica a temperatura finita e ricavata e risolta l'equazione di punto a sella per il limite di non saturazione del Modello di Hopfield. Vengono inoltre accennate le principali estensioni del Modello di Hopfield.
Resumo:
Lo scopo di questo lavoro è quello di analizzare i dati raccolti dal Large Area Telescope a bordo del satellite Fermi con l'obiettivo di ricavare il flusso di raggi-γ, di energia compresa tra 100 MeV e 300 GeV, prodotti dal Blazar PKS B1424-418 in un periodo compreso tra l'1 Gennaio 2012 e il 4 Settembre 2016. Secondo alcuni modelli questo blazar potrebbe essere infatti la prima sorgente di Ultra High Energy Cosmic Ray associata sperimentalmente all'emissione di neutrini. L'analisi dei dati è effettuata tramite il pacchetto di software Fermi Science Tools.
Resumo:
Questa tesi introduce le basi del geomagnetismo partendo da un approccio ai modelli fluidi e alle equazioni MHS, accennando alle numerose difficoltà che portano in materia di simulazioni e calcoli. In seguito si introducono i modelli a disco con uno studio approfondito della dinamica che, pur partendo da equazioni molto più semplici e approssimate della trattazione fluida, trova riscontro con i punti fondamentali del geomagnetismo e con i comportamenti dei modelli fluidi.
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.