778 resultados para SolidWorks LabVIEW SoftMotion ALMATracker simulazione
Resumo:
La capacità della spettroscopia di assorbimento di riuscire a determinare la struttura locale di campioni di ogni tipo e concentrazione, dagli elementi puri ai più moderni materiali nanostrutturati, rende lo studio dei meccanismi di incorporazione di droganti in matrici di semiconduttori il campo che meglio ne esprime tutto il potenziale. Inoltre la possibilità di ottenere informazioni sulla struttura locale di un particolare elemento in traccia posto in sistemi senza ordine a lungo raggio risulta, ovviamente, nello studio dei semiconduttori di grandissimo interesse. Tuttavia, la complessità di determinate strutture, generate dalla incorporazione di elementi eterovalenti che ne modificano la simmetria, può far si che all’analisi sperimentale si debbano affiancare dei metodi avanzati ab-initio. Questi approcci garantiscono, attraverso la simulazione o di strutture atomiche o dello stesso spettro XAS, di ottenere una più completa e precisa interpretazione dei dati sperimentali. Nella fase preliminare di questo elaborato si illustrerà la fenomenologia della spettroscopia di assorbimento e i fondamenti teorici che stanno alla base dell’analisi della struttura fine di soglia. Si introdurranno contemporaneamente le tecniche sperimentali con cui si realizzano le misure di spettri di assorbimento su una beamline che sfrutta sorgente di radiazione di sincrotrone facendo riferimento agli strumenti montati sulla linea LISA (o BM08) presso l’European Synchrotron Radiation Facility di Grenoble su cui si sono realizzati gli esperimenti di questo lavoro. Successivamente si realizzerà una rassegna di alcuni esperimenti simbolo della analisi della struttura locale di droganti in semiconduttori mediante XAFS, andando ad approfondire i metodi sperimentali associati. Nella parte principale della tesi verranno descritti alcuni tipi di analisi avanzate effettuate su Colloidal Quantum Dots a base di solfuro di piombo drogati con antimonio. Tali sistemi, particolarmente interessanti per potenziali applicazioni in campo optoelettrico, sono stati analizzati mediante misure di fluorescenza ottenute sulla beamline LISA. La fase di analisi ha visto la progettazione di una suite di programmi in C++ per realizzare simulazioni di uno spettro XAS teorico completo basato su strutture ottenute (anche esse) da metodi ab-initio.
Resumo:
L'obiettivo della tesi è studiare la dinamica di un random walk su network. Essa è inoltre suddivisa in due parti: la prima è prettamente teorica, mentre la seconda analizza i risultati ottenuti mediante simulazioni. La parte teorica è caratterizzata dall'introduzione di concetti chiave per comprendere i random walk, come i processi di Markov e la Master Equation. Dopo aver fornito un esempio intuitivo di random walk nel caso unidimensionale, tale concetto viene generalizzato. Così può essere introdotta la Master Equation che determina l'evoluzione del sistema. Successivamente si illustrano i concetti di linearità e non linearità, fondamentali per la parte di simulazione. Nella seconda parte si studia il comportamento di un random walk su network nel caso lineare e non lineare, studiando le caratteristiche della soluzione stazionaria. La non linearità introdotta simula un comportamento egoista da parte di popolazioni in interazioni. In particolare si dimostra l'esistenza di una Biforcazione di Hopf.
Resumo:
Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.
Resumo:
Uno dei più importanti problemi irrisolti nel settore ceramico è il trasporto dell’atomizzato che è attualmente trasportato mediante nastri trasportatori che prelevano il materiale dal basso all’uscita dell’atomizzatore per poi coprire lunghe distanze, attraversando l'ambiente di lavoro fino ai silos di stoccaggio. Questo tipo di trasporto seppur basato su una tecnologia affidabile produce polveri sottili, causando inquinamento nell’ambiente di lavoro e generando rischi per la salute dei lavoratori (silicosi). Questa tesi si prefigge di descrivere questo innovativo sistema di trasporto pneumatico per l’industria ceramica e di gettare alcune basi per risolvere il problema del deterioramento del materiale sia dal punto di vista granulometrico sia dal punto di visto igrometrico dovuto a problemi relativi alla linea di trasporto. Questo approccio, basato sul controllo di parametri fluidodinamici e termoigrometrici, è stato possibile grazie allo studio del trasporto pneumatico su un impianto di prova e all’utilizzo di un software di simulazione (TPSimWin) basato su studi precedenti riguardo al trasporto di un flusso bifase gas-solido.
Resumo:
Il GPL, a causa della sua infiammabilità, può dare luogo a scenari d’incendio e di esplosione. Particolarmente pericoloso è lo scenario del BLEVE – Boiling Liquid Expanding Vapor Explosion, seguito da un incendio del tipo fireball. Una strategia per la riduzione del rischio imputabile a tale scenario è rappresentato dall’applicazione di protezioni passive antincendio. Le misure di protezione passive antincendio sono costituite dall’applicazione al recipiente di GPL di una coibentazione termica, che ritardi il tempo di cedimento dell’apparecchiatura nel caso di esposizione al fuoco e quindi riduce la frequenza del BLEVE e della conseguente fireball, fornendo un lasso di tempo sufficiente per consentire l'avvio di azioni di mitigazione. Nel presente lavoro di tesi si è effettuata l’analisi costi-benefici dell’applicazione di protezioni passive alle autobotti per il trasporto stradale di GPL. Si è applicato un metodo semplificato per l’analisi sopracitata, considerando l’influenza delle incertezze sul risultato finale In particolare sono state considerate le incertezze derivanti dal modello d‘irraggiamento, dal modello di danno e dalle assunzioni in merito alla descrizione della popolazione nell’area di impatto dell’incidente. Il lavoro di tesi è così strutturato. Nel capitolo 1, di carattere introduttivo, sono riportate informazioni sul GPL, sugli scenari incidentali a cui dà origine e sulle protezioni passive antincendio. Nel capitolo 2 vengono descritti i modelli matematici per la simulazione della fireball, considerando sia i modelli per la stima dell’irraggiamento che quelli per il calcolo della probabilità di morte. Il capitolo 3 contiene la descrizione del modello semplificato di analisi costi-benefici ed il calcolo dell’area di impatto equivalente della fireball. Il capitolo 4 contiene l’applicazione del modello di analisi costi-benefici ad alcuni casi di studio reali. Il capitolo 5, infine, contiene le considerazioni conclusive.
Resumo:
Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.
Resumo:
Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.
Resumo:
Questo progetto è stato ideato con lo scopo di implementare e simulare un algoritmo di stima della posizione di una sorgente sonora. E' stato scelto di utilizzare MATLAB come strumento di sviluppo. Tutti i dispositivi hardware utilizzati sono compatibili, interfacciabili tra loro ed ampiamente descritti all'interno di questo elaborato.
Resumo:
In questa tesi viene presentata un'analisi numerica dell'evoluzione dinamica del modello di Heisenberg XXZ, la cui simulazione è stata effettuata utilizzando l'algoritmo che va sotto il nome di DMRG. La transizione di fase presa in esame è quella dalla fase paramagnetica alla ferromagnetica: essa viene simulata in una catena di 12 siti per vari tempi di quench. In questo modo si sono potuti esplorare diversi regimi di transizione, da quello istantaneo al quasi-adiabatico. Come osservabili sono stati scelti l'entropia di entanglement, la magnetizzazione di mezza catena e lo spettro dell'entanglement, particolarmente adatti per caratterizzare la fisica non all'equilibrio di questo tipo di sistemi. Lo scopo dell'analisi è tentare una descrizione della dinamica fuori dall'equilibrio del modello per mezzo del meccanismo di Kibble-Zurek, che mette in relazione la sviluppo di una fase ordinata nel sistema che effettua la transizione quantistica alla densità di difetti topologici, la cui legge di scala è predicibile e legata agli esponenti critici universali caratterizzanti la transizione.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.
Resumo:
Si è svolta la modellazione in ambiente TRNSYS di un edificio residenziale e del suo impianto di climatizzazione con pompa di calore geotermica e si sono analizzati gli andamenti delle temperature interne e delle portate d'aria erogate per equilibrare i carichi termici sia per il riscaldamento invernale che per il raffrescamento estivo. Inoltre si sono valutati, al variare dell'efficienza sensibile del recuperatore di calore, le variazioni dei consumi di energia elettrica dell'impianto di ventilazione e di energia termica erogata dalla pompa di calore geotermica.
Resumo:
Studio, a livello preliminare, di un sistema a pilotaggio remoto che permetta la sorveglianza e il monitoraggio di zone aeree e marine ad alto rischio e in contemporanea di compiere una raccolta di dati che possa essere inviata in tempo reale ad un utente a terra. Negli ultimi anni si è sviluppato notevolmente il settore dei velivoli a pilotaggio remoto sia ad ala fissa sia ad ala rotante, per la videoripresa e la fotografia aerea a bassa quota, che è utilizzata in molti ambiti tra i quali la fotogrammetria, la geologia e l’archeologia, nonché per studi scientifici e per la sicurezza. Nel presente lavoro di tesi è stata studiata la fattibilità di un UAV capace di effettuare la sua missione, previa pianificazione, in due ambienti completamente diversi fra loro: l’aria e l’acqua. Così facendo si ha la possibilità di acquistare un solo mezzo con costi minori e con un profilo di missione molto più vasto. Lo sviluppo di questo drone, pensato per operazioni di protezione civile, si è articolato in più fasi: anzitutto si è cercato di stabilire quale fosse il suo ambito di utilizzo e quali caratteristiche avrebbe dovuto avere. Successivamente si è iniziato a valutare l’equipaggiamento del velivolo con tutti i sistemi necessari per compiere la sua attività ed infine si è realizzato un disegno CAD semplificato della sua struttura. La seconda parte del lavoro è stata incentrata sullo studio preliminare della stabilità del velivolo sia in configurazione aerea sia in quella marina andando dapprima a calcolare la posizione del baricentro dell’UAV in modo da avere un velivolo aereo staticamente stabile e a simularne il volo. Successivamente si è modificato un modello Simulink di un UAV disponibile in rete, adattandolo opportunamente a questo caso per simulare parte della missione e si è potuto constatare che il velivolo risulta essere stabile; per far questo sono state calcolate diverse derivate aerodinamiche in modo da poter simulare il comportamento dinamico del velivolo. Anche per la configurazione marina sono state calcolate le derivate aerodinamiche più significative ed è stata realizzata una simulazione per valutare la stabilità del ROV, sempre a comandi fissi. In ultima analisi si è studiata una missione tipica che potrebbe effettuare questo UAV multi-modale: per fare ciò si è tracciata in Google Earth una traiettoria cui sono stati aggiunti alcuni modelli CAD nelle fasi principali del volo per far capire come varia la forma del mezzo durante la missione. Lo scenario della missione è in un contesto di disastro ambientale dovuto ad un incidente in una centrale nucleare vicina al mare, caso che ben si presta alla applicazione di questo mezzo a pilotaggio remoto.
Resumo:
Un discreto numero di molecole biologicamente attive contenute nei cibi vegetali si suppone esercitino un ruolo preventivo e favorevole su molteplici funzioni dell’organismo, con meccanismi d’azione spesso legati alla modulazione diretta e indiretta dello stress ossidativo. Acido ascorbico, tocoferoli, carotenoidi, polifenoli, posseggono attività antiossidante e giocano un ruolo positivo nella conservazione dello stato di salute. L’elevato contenuto di essi nei peperoni dolci (Capsicum Annuum L.) ha incrementato l’interesse nei confronti di questi vegetali da parte del settore agronomico e dell’industria alimentare. È tuttavia noto che la concentrazione di composti bioattivi può essere molto diversa anche tra cultivar della stessa specie vegetale ed è pertanto importante evidenziare il contenuto quali-quantitativo delle varie molecole nelle diverse cultivar di peperoni dolci, in modo da evidenziare le più ricche di tali componenti. Occorre però tenere conto anche della biodisponibilità e bioaccessibilità dei diversi componenti funzionali. Infatti il possibile effetto positivo di tali molecole non dipende solo dal loro contenuto nell’alimento ma soprattutto dalla quantità che viene rilasciata dalla matrice alimentare durante il processo digestivo, e che quindi risulta essere potenzialmente biodisponibile e attivo nell’organismo. Scopo della ricerca presentata è stato valutare e confrontare la digeribilità e la bioaccessibilità di alcuni composti bioattivi antiossidanti in peperoni dolci rossi e gialli appartenenti a due diverse cultivar, Lamuyo e Corno di Toro. Il contenuto fenolico totale e di vitamina C, l’attività antiossidante totale sono stati determinati nei campioni di peperone digeriti in vitro, e comparati ai prodotti freschi, evidenziando differenze significative in termini di bioaccessibilità in particolare tra i peperoni rossi delle due cultivar. Sebbene il processo di digestione in vitro sia una simulazione parziale ed incompleta di quanto accade in vivo, la valutazione di un alimento dopo averlo sottoposto a tale processo rappresenta un importante progresso nello studio delle proprietà e del valore nutrizionale degli alimenti.