527 resultados para Aderenza Modelli Pseudoslittamenti Translohr Metropolitane Monorotaie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La movimentazione delle materie prime, degli intermedi e dei prodotti finali all’interno di una raffineria avviene attraverso una struttura logistica che prevede la ricezione delle materie prime, i trasferimenti delle sostanze tra le diverse unità produttive, la spedizione dei prodotti finiti. La distribuzione dei fluidi avviene su vie di tubazioni (pipe rack e trincee) che si possono articolare su un’ampia porzione di territorio, in prossimità di impianti, strade ed altri centri nevralgici. La perdita di contenimento accidentale dalle tubazioni può costituire un elemento di rischio di difficile gestione, proprio per la diffusione dei percorsi su un’area di vaste dimensioni. Il presente lavoro di tesi, svolto presso lo studio ICARO s.r.l. di Cortona, si propone di effettuare l’analisi del rischio dovuto al trasferimento dei fluidi all’interno di una raffineria, valutando la frequenza e la distribuzione spaziale degli effetti degli scenari incidentali finali che possono avere luogo in caso di rilascio. Le tubazioni prese in esame sono quelle di maggior impatto dal punto di vista del rischio a causa della pericolosità della sostanza trasferita e della vicinanza del percorso a punti nevralgici all’interno dello stabilimento; sulla base di questo criterio sono state analizzate le tubazioni per il trasferimento di GPL, H2S e benzina. I risultati ottenuti consentono di identificare soluzioni per l’ottimizzazione del layout della raffineria e costituiscono, più in generale, uno strumento analitico di supporto alle modifiche progettuali. L’elaborato è strutturato come segue. Nel Capitolo 1 è riportata la descrizione della raffineria e delle linee di interconnessione selezionate ai fini dello studio. Nel Capitolo 2 vengono identificate le tipologie più rappresentative di perdita di contenimento dalle linee e ne viene stimata la frequenza di accadimento. Nel Capitolo 3 viene illustrata una metodologia per la stima della probabilità di innesco che tiene in considerazione la circolazione di automezzi nelle strade interne della raffineria. Nel Capitolo 4 vengono esaminati, confrontati e selezionati i vari tipi di modelli di rilascio presenti nel package di simulazione Phast Professional 7.1 in vista della loro applicazione alle perdite dalle linee. Nel Capitolo 5 è riportato il calcolo delle frequenze di accadimento degli scenari incidentali finali, mentre nel Capitolo 6 sono illustrati i risultati relativi alla valutazione delle conseguenze. Nel Capitolo 7 viene effettuato lo studio dell’effetto domino, sviluppato in accordo ad un approccio metodologico innovativo. Infine nel Capitolo 8 vengono riportate alcune considerazioni finali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto in questo lavoro di tesi magistrale ha avuto come obiettivo proporre un modello per la stima del tempo di percorrenza sugli archi ciclabili, in relazione alle caratteristiche geometriche dei percorsi e sfruttando il database open source OpenStreetMap. E' stato svolto un lavoro di rilievo e aggiornamento della schematizzazione della rete ciclabile; inoltre è sta condotta una campagna di rilevazioni GPS sulle piste ciclabili della città di Bologna al fine di poter svolgere la calibrazione dei parametri dei modelli proposti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato propone un’analisi dettagliata della configurazione del discorso pubblicitario, inteso come il risultato di una duplice operazione: quella di produzione del messaggio, a opera del pubblicitario, utente di precise strategie discorsive, e quella di interpretazione, da parte del destinatario che completa il significato dell’enunciato attribuendogli le proprie peculiari connotazioni. Il corpus utilizzato consiste in una raccolta di spot pubblicitari prodotti dall’azienda Barilla per i telespettatori francofoni, ed è stato reperito presso l’Archivio Storico di Barilla nella sede di Parma. L’illustrazione e la descrizione di alcune pubblicità scelte come modelli forniscono la base per l’approfondimento di alcune problematiche linguistiche e traduttologiche; in particolare, viene posto l’accento sulla nozione di ethos discorsivo, collocabile nell'ambito dell’analisi del discorso, e su quella di stereotipo linguistico, considerato come veicolo culturale e strumento dotato di straordinaria forza assertiva e pertanto prediletto dalla comunicazione pubblicitaria. Tale forma di linguaggio merita di essere analizzata e studiata nella sua ricca complessità, dal momento che è da considerarsi come il più efficace e moderno mezzo di diffusione, incorporazione e assimilazione di valori e comportamenti culturalmente orientati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I GC rappresentano i laboratori ideali nei quali studiare la dinamica stellare e i suoi effetti sull'evoluzione stellare; infatti, sono gli unici sistemi astrofisici soggetti a quasi tutti i processi fisici noti nella dinamica stellare, entro il tempo scala dell'età dell'Universo. Questo lavoro di tesi si inserisce nell'ambito di un progetto di ricerca che mira ad una dettagliata caratterizzazione dell'evoluzione dinamica dei GC della Galassia. In particolare, la misura delle velocità radiali di un ampio campione di stelle poste a differenti distanze dal centro dell’ammasso permette di derivare il profilo di dispersione di velocità del sistema,il quale ne riflette lo stato dinamico ed è utile per verificare la possibile presenza di un buco nero di massa intermedia al centro dell'ammasso. Lo studio delle velocità radiali delle singole stelle può altresì fornire informazioni riguardo la distribuzione di massa del sistema,oltreché la presenza di un'eventuale rotazione. Inoltre, la conoscenza della sola distribuzione di densità non è sufficiente a vincolare univocamente i modelli e fornire una visione completa della fisica dei GC, in quanto ad ogni determinato profilo di densità possono corrispondere diverse condizioni dinamiche. La contemporanea conoscenza del profilo di dispersione di velocità e della eventuale curva di rotazione permette di rimuovere la degenerazione causata dalla sola conoscenza del profilo di densità. Seguendo un approccio multi-strumentale,è possibile campionare l'intera estensione radiale dell'ammasso globulare: con lo spettrografo FLAMES, le regioni esterne (da distanze di circa 20 arcsec dal centro fino al raggio mareale dell'ammasso), con lo spettrografo KMOS, quelle intermedie e con lo strumento IFU ad ottiche adattive SINFONI, le regioni centrali (pochi arcsec dal centro). Questo lavoro di tesi consiste nell'analisi di spettri ad alta risoluzione acquisiti con FLAMES per un grande campione di stelle (979) localizzate nelle regioni esterne dell'ammasso NGC 2808,con lo scopo di misurare le loro velocità radiali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato si propone di indagare il tema della Sharing Economy e i relativi presupposti di sviluppo, studiando casi realmente esistenti. Si affronta la ricerca validando i modelli ipotizzati per ricercare e confrontare le soluzioni esistenti al fine di trovare le caratteristiche ritenute fondamentali per la digital sharing economy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi della risposta delle pavimentazioni flessibili alle sollecitazioni veicolari ed alle variazioni di temperatura non può prescindere dallo studio del legante bituminoso: è all’interno del film di bitume, infatti, che avviene la rottura per fatica alle basse temperature (alte frequenze di carico) e che si sviluppano le deformazioni con conseguente fenomeno dell’ormaiamento alle alte temperature di esercizio (basse frequenze di carico). Il deterioramento di queste pavimentazioni, dovuto a fenomeni di fessurazione da fatica o di ormaiamento, infatti, è divenuto nel settore infrastrutturale oggetto di studio ed approfondimento. Spesso tali ammaloramenti sono accelerati dall’azione dell’acqua che, in assenza di strati impermeabili, raggiunge gli strati inferiori della sovrastruttura indebolendo le proprietà coesive del legante e di adesione tra bitume ed aggregati. Se a queste problematiche si aggiunge l’impatto ambientale di un’infrastruttura viaria (emissione di fumi durante la stesa del conglomerato), risulta evidente l’interesse nel campo della ricerca circa lo studio di leganti bituminosi modificati e additivati, in grado di aumentare le prestazioni del pacchetto stradale, oltre che a ridurne gli effetti negativi sull’ambiente. Per queste motivazioni, la presente Tesi si concentra sullo studio dei leganti e dei mastici bituminosi ottenuti con l’aggiunta di “Powdered Rubber Modifier (PRM)” ovvero di “Polverino di Gomma” ottenuto mediante il riciclaggio di pneumatici usati, attraverso opportune lavorazioni di natura meccanica. In campo stradale sta assumendo sempre più importanza l’utilizzo di pneumatici riciclati, in grado di aumentare le prestazioni del pacchetto stradale e di ridurne gli effetti negativi sull’ambiente. Per studiare e testare questi leganti e mastici bituminosi si è scelto di utilizzare un approccio tradizionale, consistente nella simulazione della risposta meccanica macroscopica mediante modelli costitutivi basati sulla teoria del mezzo continuo: ciò significa che la miscela viene sottoposta a prove di tipo statico e dinamico in un ampio intervallo di condizioni inerenti all’intensità della forza, alla velocità di applicazione del carico ed alla temperatura. In particolare, i materiali sopra citati sono stati testati mediante Dynamic Shear Rheometer (DSR-UNI EN 14770); tale apparecchiatura è in grado, attraverso l’applicazione di una sollecitazione dinamica con andamento sinusoidale, di simulare le reali condizioni di carico cui è sottoposta una pavimentazione stradale durante la sua vita utile. I risultati reologici ottenuti sono stati confrontati per valutare il contributo prestazionale di ciascun materiale componente le miscele.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi ha natura sperimentale ed è mirata alla valutazione, attraverso l’uso di un programma agli elementi finiti tridimensionale, dell’interazione tra lo scavo del pozzo di introduzione scudi e le Mura Aureliane adiacenti a Porta Asinaria, a Roma. La prima parte della tesi si è concentrata sulla caratterizzazione geotecnica, a partire dai dati ricavati dalle campagne d’indagine eseguite nel tempo. Una volta effettuata la caratterizzazione geotecnica si è passati alla calibrazione del modello costitutivo per il terreno; si è scelto di adottare un legame costitutivo elasto-plastico incrudente, l’Hardening Soil Model with Small Strain Stiffness. Si è quindi passati alla definizione geometrica e dei materiali, utilizzando i rilievi strutturali e topografici, e alla conseguente definizione dei parametri del modello costitutivo adottato per la muratura e per il nucleo interno. In questo caso è stato adottato il modello di Mohr-Coulomb. La geometria globale è stata infine importata dal programma di calcolo PLAXIS 3D a partire da un modello tridimensionale realizzato con il programma Autocad Civil 3D. L'analisi agli elementi finiti ha valutato la realizzazione di diverse configurazioni possibili riguardanti la modellazione del pozzo e di eventuali opere di mitigazione degli effetti, quali lo sbancamento a tergo delle Mura e il successivo rinterro, a scavo ultimato. Si è inoltre analizzata l’influenza provocata da un possibile degrado della muratura. In ultimo sono stati analizzati e commentati i risultati di ciascun’analisi eseguita, in termini di stati deformativi e tensionali, ponendo l’attenzione sulle differenze di comportamento rilevate nelle diverse configurazioni adottate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'opera si propone di esplorare modelli innovativi, in particolare quello ad attori, per lo sviluppo di applicazioni enterprise distribuite con elevata scalabilità, prendendo come caso di studio lo sviluppo di un sistema per la gestione delle transazioni finanziarie in ambito petrolifero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio, mediante misure sperimentali con un telescopio per raggi cosmici, della risposta temporale di rivelatori a scintillazione accoppiati a diversi tipi di fotorivelatori. In particolare sono stati studiati due tipi di fotorivelatori: i fotomoltiplicatori al silicio (SiPM) ed i rivelatori MicroChannel Plate (MCP); entrambi i sensori presentano ottime caratteristiche per ciò che concerne la risposta temporale. Per una migliore caratterizzazione dei fotorivelatori e per una maggiore completezza dello studio sono stati analizzati anche diversi modelli di accoppiamento tra gli scintillatori ed i sensori, sia a diretto contatto che tramite fibre ottiche. Per cercare di sfruttare al meglio le eccellenti proprietà temporali, sono state utilizzate anche diverse schede di front end veloce e diversa elettronica di read out. In particolare in questa tesi, per la prima volta, è stata usata, per lo studio di questi nuovi fotorivelatori, l’elettronica di front end e read out realizzata per il rivelatore TOF dell’esperimento ALICE a LHC. I risultati di questa tesi rappresentano un punto di partenza per la realizzazione di rivelatori con ottima risoluzione temporale in esperimenti di fisica nucleare ed subnucleare (definizione del trigger, misure di tempo di volo, calorimetria). Altre interessanti applicazioni sono possibili in ambito medico, in particolare strumenti di diagnostica avanzata quali ad esempio la PET.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.