844 resultados para dinamica, cinematica, fluidodinamica, galassie
Resumo:
In questo lavoro di tesi abbiamo studiato la relazione esistente tra la concentrazione di drogante in un wafer di silicio e l’energia superficiale del suo ossido nativo. La strumentazione utilizzata per la misura dell’energia superficiale è il tensiometro ottico, uno strumento semplice ma efficace per valutare le proprietà chimico-fisiche dell’interfaccia liquido-solido. Il tensiometro ottico misura l’angolo di contatto statico e dinamico. La misura dell’angolo statico ci ha permesso di valutare l’energia superficiale dell’ossido nativo attraverso il metodo di Owen-Wendt. Per valutare l’omogeneità chimica/fisica dell’ossido abbiamo invece misurato l’isteresi dell’angolo di contatto in configurazione dinamica. Le misure di angolo statico e dinamico sono state realizzate su 10 frammenti di wafer di silicio a concentrazione crescente da 10^13 a 10^19 atomi/cm^3 di entrambi i tipi di drogante (ossia di tipo p - boro - e di tipo n - fosforo -). E’ stato osservato che, per i substrati drogati con boro, l’energia superficiale presenta un picco corrispondente ad una concentrazione di circa 10^15 atomi/cm^3 nell’intervallo di concentrazione 2 · 10^13 − 1.6 · 10^16 atomi/cm^3. Mentre i campioni drogati con fosforo presentano un andamento dell’energia superficiale leggermente crescente al crescere della concentrazione di drogaggio nell’intervallo di concentrazione 6.5 · 10^14 − 1.5 · 10^19 atomi/cm^3. Questo risultato è stato correlato alla diffusione degli atomi di drogante nell’ossido che raggiunge l’interfaccia SiO2 − Aria. L’osservazione sperimentale che l’energia superficiale dell’ossido dipenda dalla concentrazione di drogante è avvalorata dal confronto fra la componente polare e dispersiva, in particolare la componente polare presenta lo stesso picco osservato nell’energia superficiale. Le impurità nell’ossido, determinate dagli atomi di drogante, conferiscono quindi polarità alla superficie aumentando l’energia superficiale totale. Dal confronto fra le misure dei campioni as received con le misure dell’ossido ricostruito dopo 7 e 21 giorni di esposizione all’aria, ricaviamo che gli atomi di drogante diffondono nel tempo e, in particolare, la polarità superficiale ritorna alle con- dizioni as recived dopo 21 giorni dalla rimozione dell’ossido. E’ stata simulata numericamente una goccia su una superficie, comprendendo come il picco osservato nell’energia superficiale corrisponde ad un minimo dell’energia di Gibbs per i campioni di tipo p. Infine, l’isteresi aumenta in valor medio per i campioni con ossido ricostruito rispetto ai campioni as recived, ad indicare una possibile variazione dell’omogeneità chimico-fisica delle superfici.
Resumo:
Il documento è incentrato sull'analisi stratigrafica delle piroclastiti del Green Tuff di Pantelleria. L'analisi è basata sul concetto di litofacies che permette di comprendere i meccanismi deposizionali, di ricostruire la dinamica eruttiva e gli eventi deformativi che hanno interessato il deposito. Dallo studio si ipotizza che l'eruzione che ha messo il posto il Green Tuff abbia avuto inizio con lo sviluppo di una colonna eruttiva stromboliana o sub-pliniana, la quale collassando ha dato origine ad una corrente piroclastica di densità ad elevata distribuzione areale. Il Green Tuff è caratterizzato anche da peculiari strutture reomorfiche che hanno consentito l'interpretazione temporale degli eventi deformativi avvenuti durante le fasi sin- e post-deposizionali.
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.
Resumo:
Le SNe Ia vengono utilizzate in cosmologia come indicatori di distanza. Nel 1998 due team di ricerca, il Supernova Cosmology Project e l'High-z Supernova Search Team compirono degli studi su un campione di SNe in galassie lontane a z=0.2-0.9. Da questi lavori emerse che le luminosità apparenti erano tipicamente inferiori del 25% rispetto ai valori attesi. Questo indica che tali oggetti si trovano ad una distanza di luminosità superiore a quella prevista da modelli d'Universo dominati da materia. Venne quindi determinata per la prima volta l'evidenza di un Universo in condizione di espansione accelerata. Lo scopo del presente lavoro di tesi è quello di analizzare i vincoli cosmologici imposti da SNe Ia ad alto redshift. È stato compiuto uno studio sui moduli di distanza osservativi di un campione di 580 SNe Ia al fine di trovare i parametri cosmologici che meglio descrivono il loro andamento in funzione del redshift nell'ambito dei modelli cosmologici standard con costante cosmologica positiva. Nella prima parte si illustreranno i modelli d’Universo di Friedmann, introducendo i concetti di redshift, di fattore di scala e i vari tipi di distanza. Nella seconda parte si descriverà cosa sono le Supernovae, e in particolare, le SNe di tipo Ia, le proprietà che le rendono candele standard e l'importanza che hanno assunto in cosmologia. Nella terza parte verranno presentanti i risultati prodotti per i due modelli studiati, verrà inoltre discussa la compatibilità con i parametri prodotti nei lavori compiuti dai due team di ricerca.
Resumo:
In questa tesi vengono trattati argomenti relativi alla dinamica dei fasci di particelle: in particolare si è preso in considerazione il moto betatronico di una particella carica all'interno di un acceleratore circolare. Vengono quindi discussi alcuni aspetti della dinamica trasversa introducendo il formalismo Hamiltoniano e discutendo il modello presentato da Hénon per il caso bidimensionale. Viene poi introdotta la teoria adiabatica al fine di studiare gli effetti intrappolamento di un ensemble di particelle. Infine vengono presentate alcune simulazioni che permettono di poter osservare come il rumore rappresenti un fattore di rilevante importanza nello studio di tali fenomeni.
Resumo:
Negli ultimi anni, parallelamente allo sviluppo di calcolatori elettronici sempre più performanti, la fluidodinamica computazionale è diventata uno strumento di notevole utilità nell’analisi dei flussi e nello sviluppo di dispositivi medici. Quando impiegate nello studio di flussi di fluidi fisiologici, come il sangue, il vantaggio principale delle analisi CFD è che permettono di caratterizzare il comportamento fluidodinamico senza dover eseguire test in-vivo/in-vitro, consentendo quindi notevoli vantaggi in termini di tempo, denaro e rischio derivante da applicazioni mediche. Inoltre, simulazioni CFD offrono una precisa e dettagliata descrizione di ogni parametro di interesse permettendo, già in fase di progettazione, di prevedere quali modifiche al layout garantiranno maggiori vantaggi in termini di funzionalità. Il presente lavoro di tesi si è posto l’obiettivo di valutare, tramite simulazioni CFD, le performances fluidodinamiche del comparto sangue “camera venosa” di un dispositivo medico monouso Bellco impiegato nella realizzazione di trattamenti di emodialisi. Dopo una panoramica del contesto, è presentata una breve descrizione della disfunzione renale e dei trattamenti sostitutivi. Notevole impegno è stato in seguito rivolto allo studio della letteratura scientifica in modo da definire un modello reologico per il fluido non-Newtoniano preso in considerazione e determinarne i parametri caratteristici. Il terzo capitolo presenta lo stato dell’arte delle apparecchiature Bellco, rivolgendosi con particolare attenzione al componente “cassette” del dispositivo monouso. L’analisi fluidodinamica del compartimento “camera venosa” della cassette, che sarà presa in considerazione nei capitoli quinto e sesto, si inserisce nell’ambito della riprogettazione del dispositivo attualmente in commercio: il quarto capitolo si incentra sul suo nuovo design, ponendo specifico interesse sul layout della camera venosa di nuova generazione. Per lo studio dei flussi che si sviluppano internamente ad essa ci si è avvalsi del modulo CFD del software COMSOL multiphysics® (versione 5.0); la definizione del modello implementato e della tipologia di studio effettuato sono presi in considerazione nel quinto capitolo. Le problematiche di maggior impatto nella realizzazione di un trattamento di emodialisi sono l’emolisi e la coagulazione del sangue. Nell'evenienza che si verifichino massivamente occorre infatti interrompere il trattamento con notevoli disagi per il paziente, per questo devono essere evitate. Nel sesto capitolo i risultati ottenuti sono stati esaminati rivolgendo particolare attenzione alla verifica dell’assenza di fenomeni che possano portare alle problematiche suddette.
Resumo:
Gli ammassi globulari rappresentano i laboratori ideali nei quali studiare la dinamica di sistemi ad N-corpi ed i suoi effetti sull’evoluzione stellare. Infatti, gli ammassi globulari sono gli unici sistemi astrofisici che, entro il tempo scala dell’età dell’Universo, sperimentano quasi tutti i processi di dinamica stellare noti. Questo lavoro di tesi si inserisce in un progetto a lungo termine volto a fornire una dettagliata caratterizzazione delle proprietà dinamiche degli ammassi globulari galattici. In questa ricerca, strumenti di fondamentale importanza sono il profilo di dispersione di velocità del sistema e la sua curva di rotazione. Per determinare le componenti radiali di questi profili cinematici in ammassi globulari galattici è necessario misurare la velocità lungo la linea di vista di un ampio campione di stelle membre, a differenti distanze dal centro. Seguendo un approccio multi-strumentale, è possibile campionare l’intera estensione radiale dell’ammasso utilizzando spettrografi multi-oggetto ad alta risoluzione spettrale nelle regioni intermedie/esterne, e spettrografi IFU con ottiche adattive per le regioni centrali (pochi secondi d’arco dal centro). Questo lavoro di tesi è volto a determinare il profilo di dispersione di velocità dell’ammasso globulare 47 Tucanae, campionando un’estensione radiale compresa tra circa 20'' e 13' dal centro. Per questo scopo sono state misurate le velocità radiali di circa un migliaio di stelle nella direzione di 47 Tucanae, utilizzando spettri ad alta risoluzione ottenuti con lo spettrografo multi-oggetto FLAMES montato al Very Large Telescope dell’ESO. Le velocità radiali sono state misurate utilizzando la tecnica di cross-correlazione tra gli spettri osservati e appropriati spettri teorici, e sono state ottenute accuratezze inferiori a 0.5km/s. Il campione così ottenuto (complementare a quello raccolto con strumenti IFU nelle regioni centrali) è fondamentale per costruire il profilo di dispersione di velocità dell’ammasso e la sua eventuale curva di rotazione. Questi dati, combinati col profilo di densità dell’ammasso precedentemente determinato, permetteranno di vincolare opportunamente modelli teorici come quelli di King (1966) o di Wilson (1975), e di arrivare così alla prima solida determinazione dei parametri strutturali e dinamici (raggi di core e di metà massa, tempo di rilassamento, parametro collisionale, etc.) e della massa totale e distribuzione di massa del sistema.
Resumo:
La tesi tratta del convertitore Buck Boost a ponte di interruttori e non invertente. Si tratta di due LEG indipendenti connessi da un induttore e che possono realizzare conversioni rispettivamente in discesa e salita. Questo convertitore soffre di problemi di controllo nel passaggio dalla modalità di salita a quella di discesa e viceversa e nella gestione di tensioni molto vicine alla regione di confine a causa delle limitazioni nei duty cycle massimi e minimi dei singoli LEG. Nella tesi si è studiato una tecnica di controllo in grado di gestire la transizione con una minima variazione di corrente media sull' elemento di transfer energetico: questo dovrebbe garantire delle migliori prestazioni in dinamica. La tecnica adottata è anche compatibile con una sostanziale riduzione delle perdite di commutazione nella zona di transizione fra le due modalità (salita e discesa).
Resumo:
Le Blue Straggler Stars (BSS) sono la popolazione di oggetti esotici piu' comune e numerosa negli ammassi globulari. Nel diagramma colore-magnitudine le BSS definiscono una sequenza più brillante e blu del punto di turn-off della Sequenza Principale, simulando una popolazione più giovane delle stelle dell'ammasso. Osservazioni hanno dimostrato che le BSS hanno una massa significativamente più grande (1.2-1.7 Msun) di quella delle stelle di un ammasso globulare. Per questa proprietà, la distribuzione radiale delle BSS e' un utile strumento per tracciare empiricamente lo stato di evoluzione dinamica degli ammassi stellari. Il lavoro di tesi si è concentrato sullo studio della popolazione di BSS di due ammassi globulari della Grande Nube di Magellano: NGC2257 e NGC1754. Applicando metodi di indagine già usati per sistemi stellari della Via Lattea, abbiamo derivato le eta' dinamiche di questi due sistemi e le abbiamo confrontate con stime teoriche.
Resumo:
Si consideri un insieme X non vuoto su cui si costruisce una sigma-algebra F, una trasformazione T dall'insieme X in se stesso F-misurabile si dice che conserva la misura se, preso un elemento della sigma-algebra, la misura della controimmagine di tale elemento è uguale a quella dell'elemento stesso. Con questa nozione si possono costruire vari esempi di applicazioni che conservano la misura, nell'elaborato si presenta la trasformazione di Gauss. Questo tipo di trasformazioni vengono utilizzate nella teoria ergodica dove ha senso considerare il sistema dinamico a tempi discreti T^j x; dove x = T^0 x è un dato iniziale, e studiare come la dinamica dipende dalla condizione iniziale x. Il Teorema Ergodico di Von Neumann afferma che dato uno spazio di Hilbert H su cui si definisce un'isometria U è possibile considerare, per ogni elemento f dello spazio di Hilbert, la media temporale di f che converge ad un elemento dell'autospazio relativo all'autovalore 1 dell'isometria. Il Teorema di Birkhoff invece asserisce che preso uno spazio X sigma-finito ed una trasformazione T non necessariamente invertibile è possibile considerare la media temporale di una funzione f sommabile, questa converge sempre ad una funzione f* misurabile e se la misura di X è finita f* è distribuita come f. In particolare, se la trasformazione T è ergodica si avrà che la media temporale e spaziale coincideranno.
Resumo:
Il Cryptolocker è un malware diffuso su scala globale appartenente alla categoria ransomware. La mia analisi consiste nel ripercorrere le origini dei software maligni alla ricerca di rappresentanti del genere con caratteristiche simili al virus che senza tregua persevera a partire dal 2013: il Cryptolocker. Per imparare di più sul comportamento di questa minaccia vengono esposte delle analisi del malware, quella statica e quella dinamica, eseguite sul Cryptolocker (2013), CryptoWall (2014) e TeslaCrypt (2015). In breve viene descritta la parte operativa per la concezione e la configurazione di un laboratorio virtuale per la successiva raccolta di tracce lasciate dal malware sul sistema e in rete. In seguito all’analisi pratica e alla concentrazione sui punti deboli di queste minacce, oltre che sugli aspetti tecnici alla base del funzionamento dei crypto, vengono presi in considerazione gli aspetti sociali e psicologici che caratterizzano un complesso background da cui il virus prolifica. Vengono confrontate fonti autorevoli e testimonianze per chiarire i dubbi rimasti dopo i test. Saranno questi ultimi a confermare la veridicità dei dati emersi dai miei esperimenti, ma anche a formare un quadro più completo sottolineando quanto la morfologia del malware sia in simbiosi con la tipologia di utente che va a colpire. Capito il funzionamento generale del crypto sono proprio le sue funzionalità e le sue particolarità a permettermi di stilare, anche con l’aiuto di fonti esterne al mio operato, una lista esauriente di mezzi e comportamenti difensivi per contrastarlo ed attenuare il rischio d’infezione. Vengono citati anche le possibili procedure di recupero per i dati compromessi, per i casi “fortunati”, in quanto il recupero non è sempre materialmente possibile. La mia relazione si conclude con una considerazione da parte mia inaspettata: il potenziale dei crypto, in tutte le loro forme, risiede per la maggior parte nel social engineering, senza il quale (se non per certe categorie del ransomware) l’infezione avrebbe percentuali di fallimento decisamente più elevate.
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
In questa tesi si studia l'angiogenesi tumorale, dapprima descrivendo i fenomeni biologici alla base della dinamica cellulare, e successivamente, dopo aver introdotto gli strumenti matematici necessari, sviluppandone un modello seguendo la letteratura esistente basato sulle equazioni differenziali stocastiche e su quelle di Fokker-Planck. Ne vengono infine realizzate simulazioni numeriche.
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.