548 resultados para simulazione, cinetica, sodio, modello monocompartimentale
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.
Resumo:
La presenta tesi ha come obiettivo la modellazione, tramite il software Matlab Simulink, di un motore a combustione interna ad accensione comandata nelle sue parti fondamentali ed il relativo veicolo. Le parti modellate inerenti al gruppo termico sono quelle di produzione coppia, il sistema di aspirazione con un modello statico e uno dinamico ed, infine, il sistema di scarico. Per quanto riguarda la parte veicolo si implementa la dinamica della driveline e quella longitudinale del mezzo stesso. Il simulatore deve essere costituito da un layout modulare e ha come ipotesi fondamentale quella di poter lavorare in real-time, quindi si utilizza un modello zero-dimensionale e con valori costanti all'interno di un singolo ciclo motore. In conclusione, viene mostrato come implementare il modello in un sistema SIL per poterne testare il funzionamento in tempo reale e visualizzare i risultati da esso prodotti.
Resumo:
Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.
Resumo:
I tumori, detti anche ''la malattia del secolo'', portano ogni anno alla morte di oltre 7 milioni di persone al mondo. Attualmente è una malattia molto diffusa che colpisce soprattutto persone anziane e non solo; tuttavia ancora non esiste una cura ''esatta'' che riesca a guarire la totalità delle persone: anzi si è ben lontani da questo risultato. La difficoltà nel curare queste malattie sta nel fatto che, oltre ad esservi una grande varietà di tipologie (è quindi difficile trovare una cura unica), spesse volte la malattie viene diagnosticata molto tempo dopo la comparsa per via dei sintomi che compaiono in ritardo: si intende quindi che si parla di una malattia molto subdola che spesse volte lascia poche speranze di vita. Uno strumento, utilizzato assieme alla terapie mediche, è quello della modellizzazione matematica: essa cerca di descrivere e prevedere, tramite equazioni, lo sviluppo di questo processo e, come ben si intenderà, poter conoscere in anticipo quel che accadrà al paziente è sicuramente un fattore molto rilevante per la sua cura. E' interessante vedere come una materia spesso definita come "noiosa" ed ''inutile'', la matematica, possa essere utilizzata per i più svariati, come -nel caso specifico- quello nobile della cura di un malato: questo è un aspetto di tale materia che mi ha sempre affascinato ed è anche una delle ragioni che mi ha spinto a scrivere questo elaborato. La tesi, dopo una descrizione delle basi oncologiche, si proporrà di descrivere le neoplasie da un punto di vista matematico e di trovare un algoritmo che possa prevedere l'effetto di una determinata cura. La descrizione verrà fatta secondo vari step, in modo da poter rendere la trattazione più semplice ed esaustiva per il lettore, sia egli esperto o meno dell'argomento trattato. Inizialmente si terrano distinti i modelli di dinamica tumorale da quelli di cinetica farmacologica, ma poi verrano uniti ed utilizzati assieme ad un algoritmo che permetta di determinare l'effetto della cura e i suoi effetti collaterali. Infine, nella lettura dell'elaborato il lettore deve tenere sempre a mente che si parla di modelli matematici ovvero di descrizioni che, per quanto possano essere precise, sono pur sempre delle approssimazioni della realtà: non per questo però bisogna disdegnare uno strumento così bello ed interessante -la matematica- che la natura ci ha donato.
Resumo:
Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.
Resumo:
A seconda della forma del modello da realizzare, durante la laminazione su stampo le fibre di cui è composto un materiale composito si dispongono in maniera differente rispetto alla trama originale del tessuto. In questo lavoro di tesi, dopo una descrizione dei materiali compositi, dei processi di produzione e dei metodi implementati attualmente per la loro simulazione in codici di calcolo commerciali, si concentra l'attenzione su un metodo di modellazione dei tessuti, chiamato metodo di Verlet, che consente di studiare la disposizione di un tessuto che si adagia su un corpo di forma qualsiasi, tenendo in conto le deformazioni delle fibre. La tesi si conclude con alcune considerazioni sulla problematica affrontata e sui risultati ottenuti.
Resumo:
Velocity prediction program per catamarano con V-foil anteriori e T-foil posteriori, simulazione di volo 3DOF con analisi della stabilità e dei carichi applicati.
Resumo:
In questo lavoro sono presentate le principali caratteristiche delle previsioni meteorologiche mensili, nonché il progresso scientifico e storico che le ha coinvolte e le tecniche adibite alla loro verifica. Alcune di queste tecniche sono state applicate al fine di valutare ed analizzare l'errore sistematico (o bias) e l'RMSE di temperatura a 850 hPa (T850), altezza geopotenziale a 500 hPa (Z500) e precipitazioni cumulate del modello GLOBO, utilizzato presso l'Istituto per le Scienze dell'Atmosfera e del Clima del Consiglio Nazionale delle Ricerche per formulare previsioni mensili. I risultati mostrano la progressione temporale dell'errore, che aumenta nelle prime due settimane di integrazione numerica fino a stabilizzarsi tra la terza e la quarta. Ciò mostra che il modello, persa l'influenza delle condizioni iniziali, raggiunge un suo stato che, per quanto fisiologicamente distante da quello osservato, tende a stabilizzarsi e a configurarsi quindi come sistematico (eventualmente facilitandone la rimozione in fase di calibrazione delle previsioni). Il bias di T850 e Z500 presenta anomalie negative prevalentemente lungo le zone equatoriali, e vaste anomalie positive sulle aree extra-tropicali; quello delle precipitazioni mostra importanti sovrastime nelle zone continentali tropicali. La distribuzione geografica dell'RMSE (valutato solo per T850 e Z500) riscontra una generale maggiore incertezza nelle zone extra-tropicali, specie dell'emisfero settentrionale e nei mesi freddi.
Resumo:
Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.
Resumo:
Il presente lavoro intende offrire un riassunto dello “stato dell’arte” della Cosmologia: dopo averne ripercorso per sommi capi la storia degli ultimi cent’anni (cap.1), verrà illustrato il Modello Cosmologico Standard “ΛCDM” (cap.2), che è quello generalmente accettato dalla comunità scientifica allo stato attuale delle conoscenze; infine, si farà un breve “excursus” sulle questioni “aperte” e sui modelli cosmologici alternativi (cap.3).
Resumo:
Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.
Resumo:
Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Lo studio della memoria semantica attraverso modelli teorici (qualitativi o matematici) gioca un ruolo importante nelle neuroscienze cognitive. In questa tesi viene presentato un modello della memoria semantica e lessicale. Il principio alla base del modello è che la semantica di un oggetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione dell’oggetto nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate del cervello, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è indagare i meccanismi che portano alla formazione di categorie, analizzare il ruolo delle diverse proprietà nella costruzione di un concetto e le connessioni tra queste proprietà e la parola corrispondente al nome dell’oggetto. Durante l’addestramento per ogni oggetto sono presentate alcune proprietà in input, con una data frequenza: alcune sono condivise, cioè appartengono a più di un concetto e permettono la formazione di categorie, altre sono distintive, cioè sono tipiche di un concetto e consentono la rappresentazione dei membri di una categoria. Un ulteriore aspetto riguardante le proprietà è la distinzione fra proprietà salienti, che sono spontaneamente evocate, e proprietà marginali. E’ stata utilizzata una tassonomia composta da 11 parole che identificano 11 animali. La salienza è stabilita dalla frequenza con cui si verifica ciascuna proprietà. La distinzione tra proprietà condivise e distintive, e tra proprietà salienti e non salienti, è stata ottenuta mediante l’uso della regola di Hebb con una diversa soglia presinaptica e postsinaptica, producendo patterns di sinapsi asimmetriche all’interno della rete semantica (auto-associazione) e tra la rete semantica e lessicale (etero-associazione). La rete addestrata è in grado di risolvere compiti di riconoscimento e denominazione di oggetti, mantenendo una distinzione tra le categorie e i suoi membri, e fornendo un diverso ruolo per le proprietà salienti rispetto alle proprietà marginali.
Resumo:
In questo elaborato verrà illustrato il processo di realizzazione degli scenari tridimensionali utilizzati nell’addestramento dei Controllori del Traffico Aereo di aeroporto. Verrà esposto nel dettaglio il processo di modellazione al computer di scenari compatibili con il sistema Adacel™ MaxSim® attualmente utilizzato nei simulatori di ENAV Academy; verranno inoltre analizzati e descritti i processi decisionali che si affrontano prima e durante le diverse fasi di realizzazione dello scenario. Nell’illustrare i processi e le metodologie si farà riferimento all’esperienza acquisita durante la collaborazione con il team di ENAV per la realizzazione di modelli e scenari tridimensionali. In particolare, si farà riferimento allo scenario dell’Aeroporto di Ciampino in una fase di addestramento resa necessaria dal delicato passaggio dalla gestione militare alla gestione civile.