316 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale
Resumo:
La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.
Resumo:
Lo studio intrapreso si è posto come obiettivo la caratterizzazione dal punto di vista elettrico dei materiali coinvolti nella realizzazione di accessori per applicazioni in HVDC, in particolare mescole isolanti, semiconduttive e varioresistive. La necessità di un lavoro di questo tipo viene giustificata dalla costante espansione dei sistemi in DC nella trasmissione dell’energia elettrica, i quali presentano caratteristiche fisiche che si differenziano sensibilmente da quelle tipiche dei tradizionali sistemi in AC, dunque richiedono componenti e materiali opportunamente progettati per garantire condizioni di servizio sicure e affidabili. L’obiettivo della trattazione consiste nello studio di analogie e differenze tra le proprietà elettriche fornite da prove su diverse configurazioni di provini, nella fattispecie di tipo piano e cilindrico cavo. In primo luogo si studiano i provini di tipo piano al fine di ricavare informazioni basilari sul materiale e sulla mescola che lo costituisce e di prendere decisioni relative al proseguimento dei test. Dopo aver effettuato un sufficiente numero di test su varie tipologie di provini piani e aver riconosciuto le mescole più performanti dal punto di vista elettrico, meccanico e termico, si procede alla realizzazione di provini cilindrici stampati, su cui si intraprendono le medesime misure effettuate per la configurazione piana. Questa seconda fase di caratterizzazione è fondamentale, in quanto consente di verificare che le proprietà già studiate su piastra si conservino in una geometria molto più simile a quella assunta dal prodotto finale evitando di sostenere costi onerosi per la produzione di un accessorio full-size. Il lavoro è stato svolto nel laboratorio elettrico di alta tensione della divisione R&D del gruppo Prysmian di Milano, leader mondiale nella produzione di sistemi in cavo per alte e altissime tensioni.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
Lo scopo di questa tesi è la trattazione della materia oscura partendo dalle evidenze sperimentali, ripercorrendo i possibili costituenti e riportando dati relativi a rivelazioni dirette ed indirette. Il primo capitolo è dedicato alla discussione delle due più importanti evidenze della presenza di materia oscura, ossia le curve di rotazione ed il Bullet Cluster, che risultano entrambe interazioni di tipo gravitazionale. Si provvede inoltre a fornire le due più plausibili soluzioni in grado di spiegare i risultati ottenuti dalle osservazioni sperimentali e a discutere la loro validità come modello per la descrizione di tali fenomeni. Il capitolo successivo è volto all'esposizione delle possibili particelle che compongono la materia oscura, discutendo quali siano le più probabili, e alla spiegazione della loro creazione nell'Universo primordiale. La terza parte è dedicata alle rilevazioni dirette, consistenti nello scattering fra particelle di materia oscura e nuclei, ed in particolare all'analisi del modello dei neutralini. Vengono poi riportati nello stesso capitolo i risultati di tali rilevazioni, con riferimento agli esperimenti CDMS II, XENON100 e LUX. Nel quarto capitolo si tratteranno i risultati delle rilevazioni indirette, ossia osservazioni di processi derivanti dall'annichilazione di materia oscura, e verranno riportati i risultati degli esperimenti più importanti, fra cui i più recenti sono Fermi-LAT e CTA (ancora in sviluppo). L'ultimo paragrafo è riservato ad un breve riassunto dei risultati e delle ipotesi trattate, per raccogliere i dati più importanti e fornire una visione generale della materia oscura.
Resumo:
Il Modello di Hopfield è un tentativo di modellizzare il comportamento di una memoria associativa come proprietà emergente di un network costituito da unità a due stati interagenti tra loro, e costituisce un esempio di come gli strumenti della meccanica statistica possano essere applicati anche al campo delle reti neurali. Nel presente elaborato viene esposta l'analogia tra il Modello di Hopfield e il Modello di Ising nel contesto delle transizioni di fase, applicando a entrambi i modelli la teoria di campo medio. Viene esposta la dinamica a temperatura finita e ricavata e risolta l'equazione di punto a sella per il limite di non saturazione del Modello di Hopfield. Vengono inoltre accennate le principali estensioni del Modello di Hopfield.
Resumo:
Lo scopo di questo lavoro è quello di analizzare i dati raccolti dal Large Area Telescope a bordo del satellite Fermi con l'obiettivo di ricavare il flusso di raggi-γ, di energia compresa tra 100 MeV e 300 GeV, prodotti dal Blazar PKS B1424-418 in un periodo compreso tra l'1 Gennaio 2012 e il 4 Settembre 2016. Secondo alcuni modelli questo blazar potrebbe essere infatti la prima sorgente di Ultra High Energy Cosmic Ray associata sperimentalmente all'emissione di neutrini. L'analisi dei dati è effettuata tramite il pacchetto di software Fermi Science Tools.
Resumo:
Questa tesi introduce le basi del geomagnetismo partendo da un approccio ai modelli fluidi e alle equazioni MHS, accennando alle numerose difficoltà che portano in materia di simulazioni e calcoli. In seguito si introducono i modelli a disco con uno studio approfondito della dinamica che, pur partendo da equazioni molto più semplici e approssimate della trattazione fluida, trova riscontro con i punti fondamentali del geomagnetismo e con i comportamenti dei modelli fluidi.
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.
Resumo:
Obiettivo di questo elaborato è fornire alle aziende operanti sul mercato nella realtà industriale, una trattazione dei temi relativi alla standardizzazione e ottimizzazione dei processi di produzione, didatticamente semplice e fortemente orientata all’applicazione, centrata sui criteri di ricerca della massima efficienza tecnica ed economica del prodotto. La trattazione, corredata, ovunque possibile, di approcci quantitativi supportati da idonei strumenti matematici, vuole offrire per ogni tipo di azienda che operi sul mercato una traccia semplice e chiara in merito ad un tema estremamente attuale, relativo all'ottimizzazione e standardizzazione del processo produttivo, per salvaguardare il proprio vantaggio competitivo e aumentare la robustezza e capacità di far fronte a ogni tipo di minaccia esterna e/o interna potenzialmente verificabile in futuro. Infatti, il prodotto finale di tale attività di analisi, volta alla riduzione degli sprechi, mantenendo fisso il prezzo di vendita si tramuta quindi in un incremento dei margini di ricavo su ogni unità di vendita. Da ultimo, con la parte finale dell’elaborato è mia intenzione veicolare e far comprendere l’importanza e i vantaggi connessi all'introduzione ponderata dell’automazione anche all'interno di un contesto aziendale con lavorazioni altamente specifiche e variegate. È fondamentale per la sopravvivenza delle aziende nel contesto competitivo globale automatizzare le lavorazioni ripetitive a bassa creazione di valore aggiunto, realizzando in questo modo economie di scala. La manodopera specializzata deve essere razionalizzata e utilizzata esclusivamente per le lavorazioni complesse, distintive e rappresentative della grande competenza e affidabilità proprie dell’industria italiana.
Resumo:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
Resumo:
Durante la sosta degli automezzi alimentati ad LNG, la pressione all'interno dei serbatoi criogenici aumenta a causa della formazione di gas al loro interno fino al raggiungimento di una pressione limite, superata la quale il gas metano generato, detto di boil-off, viene sfiatato in aria. Dato il forte impatto ambientale che ha il metano, si è valutato quali fossero le dinamiche legate alla sua produzione e al suo sfiato in funzione delle condizioni iniziali e delle condizioni ambientali esterne. Dopo aver allestito una stazione di prova per poter monitorare i valori di pressione interna del serbatoio, fino al raggiungimento della pressione di sfiato, e di massa del sistema nel tempo per valutare la portata di sfiato, sono state eseguite quattro prove con differenti valori iniziali di pressione interna e livello di riempimento di liquido. Terminate le prove sperimentali, è stato analizzato un sistema di recupero del gas altrimenti sfiatato da installare direttamente a bordo dell'automezzo. Grazie ai risultati delle prove effettuate, è stato poi possibile valutare il consumo energetico che tale recupero richiederebbe e i vantaggi che comporterebbe sia ambientali che economici. Ulteriori prove possono essere effettuate per analizzare le prestazioni del sistema di recupero, in particolare riguardo alle caratteristiche del compressore presente all'interno del sistema stesso che deve essere installato a bordo dell'automezzo.
Resumo:
Negli ultimi decenni nuove e sempre più restrittive normative antiinquinamento son state introdotte nei paesi maggiormente industrializzati dettando un aumento degli sforzi progettuali imposti all’industria automobilistica per cercare di contenere l’impatto ambientale esercitato dai motori a combustione interna. E’ evidente quindi l’importanza di possedere una profonda conoscenza dei fenomeni fisici e chimici che influenzano i processi di combustione così come avere a disposizione modelli quanto più accurati per la loro corretta rappresentazione tramite CFD. Per i motori ad accensione comandata gli studi si sono focalizzati sulla ricerca dell’efficienza evitando di incorrere in rischi di detonazione. Numerose sono le tecnologie che permettono di assolvere alle funzioni richieste, tra le più affermate vi sono i sistemi a fasatura variabile, in particolare le strategie che prendono il nome di ciclo Miller. Tale sistema, implementabile facilmente senza l’utilizzo di alcun sistema aggiuntivo, permette di ridurre sensibilmente temperature e pressioni in camera. Il seguente lavoro di tesi studierà, attraverso simulazione numerica tridimensionale condotta con software CONVERGE®, gli aspetti fisici e fluidodinamici indotti dalle diverse strategie REF, EIVC e LIVC applicate ad un motore GDI con tecnologia downsizing e turbocharging (modellato in ambiente CAD, tramite PTC CREO®). Successivamente, allo stesso motore, saranno apportate modifiche progettuali con lo scopo di comprendere in che modo un aumento di un punto del rapporto di compressione, che equivale a spostarsi verso zone a prestazioni più elevate, impatti sull’entità di pressione, temperatura e comportamento fluidodinamico e fisico a pari condizioni operative e di alzata. L’analisi ed il confronto con gli altri casi sancirà se questa nuova configurazione possa essere accettabile o rischiosa ai fini della detonazione.
Resumo:
La fibrillazione atriale (FA) è la forma di aritmia cardiaca più diffusa nella pratica clinica. Attualmente, sono più di 30 milioni le persone affette da FA e si prevede una forte crescita di tale numero, conseguentemente al progressivo invecchiamento della popolazione. Ad oggi, la terapia anticoagulante orale è la principale strategia impiegata per la prevenzione di ictus ischemico. Nonostante l’efficacia degli anticoagulanti, un numero rilevante di pazienti non possono assumerli, a causa di un aumentato rischio emorragico e della pericolosa interazione con altri farmaci. È stato dimostrato che nel 90% dei casi la formazione dei trombi intracardiaci in pazienti con FA avviene in un punto ben preciso dell’atrio sinistro, ossia nell’auricola. Ciò è dovuto al fatto che essa, avendo una particolare morfologia, in condizioni non fisiologiche (emodinamica rallentata), tende a favorire la stasi del sangue al suo interno. Di conseguenza, la chiusura meccanica dell’auricola è emersa come alternativa clinica alla prevenzione farmacologica. I risultati relativi a recenti trials hanno suggerito che la chiusura percutanea della LAA attraverso l’impianto di opportuni occlusori è una terapia sicura, con un’efficacia non inferiore alla terapia di anticoagulanti orali nella prevenzione dell’ictus. L’obiettivo di questo elaborato di tesi è valutare in simulazione l’effetto dell’occlusione dell’auricola sinistra e di un eventuale dislocazione del dispositivo sulla fluidodinamica atriale in pazienti affetti da FA. Sono stati realizzati modelli 3D che simulano sia il risultato della procedura di LAAO con i dispositivi Amulet e Watchman, sia l’effetto della dislocazione dell’occlusore. Successivamente, sono state effettuate le simulazioni fluidodinamiche CFD sui modelli di atrio intero, sui modelli occlusi (privi di auricola) e sui modelli parzialmente occlusi (dislocazione Amulet) per studiare e valutare i parametri fluidodinamici (velocità, vorticità e stasi).
Resumo:
Il seguente lavoro analizza l’influenza che il biochar ha nel ciclo dell’azoto nei suoli, in particolare in riferimento alla possibilità di diminuire il fenomeno di lisciviazione dei nitrati dato il continuo aumento in agricoltura dell’uso di fertilizzanti azotati. La scelta di questo tipo di ammendante è dovuta alle sue ampie potenzialità d’impiego e si pone in un percorso di economia circolare con la valorizzazione delle biomasse di scarto. Il lavoro si divide in un’approfondita ricerca bibliografica con elaborazione critica delle informazioni e una parte sperimentale. Si sono analizzate le interazioni che il biochar ha sui vari processi che compongono il ciclo dell’azoto. Sono stati riportati e discussi i principali metodi di determinazione delle capacità adsorbenti del biochar oltre ad un’analisi e una descrizione dei più comuni modelli di isoterme di adsorbimento. Si è testata la capacità adsorbente, tramite test di screening in batch, di sette tipi di biochar che presentavano origine e sintesi differenti. I biochar hanno presentato adsorbimenti molto modesti nei confronti dei nitrati evidenziando solo una diminuzione della quantità di nitrati rilasciati dal biochar stesso. Per quanto concerne l’ammonio, invece, i biochar hanno presentato percentuali di adsorbimento tra il 60-70% con un massimo del 80%.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.