852 resultados para Localizzazione, Guasti, Trazione Elettrica, Ferrovia


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fenomeno dello scattering diffuso è stato oggetto di numerosi studi nell’arco degli ultimi anni, questo grazie alla sua rilevanza nell’ambito della propagazione elettromagnetica così come in molti altri campi di applicazione (remote sensing, ottica, fisica, etc.), ma la compresione completa di questo effetto è lungi dall’essere raggiunta. Infatti la complessità nello studio e nella caratterizzazione della diffusione deriva dalla miriade di casistiche ed effetti che si possono incontrare in un ambiente di propagazione reale, lasciando intuire la necessità di trattarne probabilisticamente il relativo contributo. Da qui nasce l’esigenza di avere applicazioni efficienti dal punto di vista ingegneristico che coniughino la definizione rigorosa del fenomeno e la conseguente semplificazione per fini pratici. In tale visione possiamo descrivere lo scattering diffuso come la sovrapposizione di tutti quegli effetti che si scostano dalle classiche leggi dell’ottica geometrica (riflessione, rifrazione e diffrazione) che generano contributi del campo anche in punti dello spazio e direzioni in cui teoricamente, per oggetti lisci ed omogenei, non dovrebbe esserci alcun apporto. Dunque l’effetto principale, nel caso di ambiente di propagazione reale, è la diversa distribuzione spaziale del campo rispetto al caso teorico di superficie liscia ed omogenea in congiunzione ad effetti di depolarizzazione e redistribuzione di energia nel bilancio di potenza. Perciò la complessità del fenomeno è evidente e l’obiettivo di tale elaborato è di proporre nuovi risultati che permettano di meglio descrivere lo scattering diffuso ed individuare altresì le tematiche sulle quali concentrare l’attenzione nei lavori futuri. In principio è stato quindi effettuato uno studio bibliografico così da identificare i modelli e le teorie esistenti individuando i punti sui quali riflettere maggiormente; nel contempo si sono analizzate le metodologie di caratterizzazione della permittività elettrica complessa dei materiali, questo per valutare la possibilità di ricavare i parametri da utilizzare nelle simulazioni utilizzando il medesimo setup di misura ideato per lo studio della diffusione. Successivamente si è realizzato un setup di simulazione grazie ad un software di calcolo elettromagnetico (basato sul metodo delle differenze finite nel dominio del tempo) grazie al quale è stato possibile analizzare la dispersione tridimensionale dovuta alle irregolarità del materiale. Infine è stata condotta una campagna di misure in camera anecoica con un banco sperimentale realizzato ad-hoc per effettuare una caratterizzazione del fenomeno di scattering in banda larga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scoprire come funziona la natura non è fine a se stesso. A volte ci vogliono anni, decenni o ancora di più per comprendere che una scoperta, che può risultare agli occhi dei più inutile, è in grado di cambiar la vita di molti. Può sembrare di aver buttato via soldi, tempo e intelletto. Ma la ricerca e lo studio pagano sempre. La qualità della vita è migliorata e migliorerà notevolmente grazie a chi si è impegnato e si impegna nella ricerca. Basti pensare alla corrente elettrica e al riscaldamento nelle nostre case; ai mezzi che ci permettono di spostarci sempre più velocemente in posti sempre più lontani; a modi di comunicare anch’essi più veloci e più fruibili. Anche la medicina ha fatto passi da gigante, spesso grazie alle applicazioni della fisica, soprattutto nel settore della fisica nucleare. Oggi sentiamo parlare di PET, di risonanza magnetica; tutti nella nostra vita abbiamo fatto una radiografa, ma pochi conoscono i principi che ci sono dietro queste tecniche mediche. In questa tesi sarà discusso in modo più accurato l’utilizzo della fissione nucleare e la sua storia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesi analizza le relazioni tra i processi di sviluppo agricolo e l’uso delle risorse naturali, in particolare di quelle energetiche, a livello internazionale (paesi in via di sviluppo e sviluppati), nazionale (Italia), regionale (Emilia Romagna) e aziendale, con lo scopo di valutare l’eco-efficienza dei processi di sviluppo agricolo, la sua evoluzione nel tempo e le principali dinamiche in relazione anche ai problemi di dipendenza dalle risorse fossili, della sicurezza alimentare, della sostituzione tra superfici agricole dedicate all’alimentazione umana ed animale. Per i due casi studio a livello macroeconomico è stata adottata la metodologia denominata “SUMMA” SUstainability Multi-method, multi-scale Assessment (Ulgiati et al., 2006), che integra una serie di categorie d’impatto dell’analisi del ciclo di vita, LCA, valutazioni costi-benefici e la prospettiva di analisi globale della contabilità emergetica. L’analisi su larga scala è stata ulteriormente arricchita da un caso studio sulla scala locale, di una fattoria produttrice di latte e di energia elettrica rinnovabile (fotovoltaico e biogas). Lo studio condotto mediante LCA e valutazione contingente ha valutato gli effetti ambientali, economici e sociali di scenari di riduzione della dipendenza dalle fonti fossili. I casi studio a livello macroeconomico dimostrano che, nonostante le politiche di supporto all’aumento di efficienza e a forme di produzione “verdi”, l’agricoltura a livello globale continua ad evolvere con un aumento della sua dipendenza dalle fonti energetiche fossili. I primi effetti delle politiche agricole comunitarie verso una maggiore sostenibilità sembrano tuttavia intravedersi per i Paesi Europei. Nel complesso la energy footprint si mantiene alta poiché la meccanizzazione continua dei processi agricoli deve necessariamente attingere da fonti energetiche sostitutive al lavoro umano. Le terre agricole diminuiscono nei paesi europei analizzati e in Italia aumentando i rischi d’insicurezza alimentare giacché la popolazione nazionale sta invece aumentando.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il termine biochar definisce il prodotto solido derivante dalla pirolisi di un qualsiasi materiale organico, con lo specifico scopo di essere applicato nei suoli sia per fini agronomici che di gestione ambientale. Un suo utilizzo in maniera "responsabile" richiede però una piena comprensione delle sue proprietà e dei meccanismi che controllano la sua attività nel terreno, che dipendono dalla biomassa di partenza e dalle condizioni di sintesi tramite pirolisi. Infatti le condizioni di pirolisi, in particolare la temperatura di processo e il tempo di residenza, determinano biochar con caratteristiche differenti. In questo lavoro di tesi sono stati prodotti biochar da due diverse tipologie di biomassa residuale ampiamente disponibili (stocchi di mais e pollina). Per ciascuna biomassa sono state scelte tre condizioni di pirolisi (400°C x 20 minuti, 500°C x 10 minuti e 600°C x 5 minuti). Sui biochar ottenuti sono state effettuate le seguenti determinazioni: analisi elementare, Pirolisi‐GC‐MS, idrocarburi policiclici aromatici (IPA), acidi grassi volatili (VFA), azoto ammoniacale (N‐NH4 +), pH, conduttività elettrica e ritenzione idrica. Infine i biochar sintetizzati sono stati utilizzati per fare due test di germinazione per valutare l'effetto sulla formazione delle prime strutture di crescita delle plantule, tramite test di tossicità brevi con piastre Petri. Il primo test è stato condotto a concentrazione crescente di miscele acqua/biochar (2, 5, 40 e 100 g/L sulla base delle quantità di biochar utilizzate come ammendante nel suolo), sulla germinazione seguendo la metodologia normata dalla ISO 11269:2012. I semi utilizzati nel primo test sono stati quelli del crescione (Lepidium sativum L.) come specie dicotiledone, e del sorgo (Sorghum saccharatum M.) come monocotiledone. Il secondo saggio di tossicità eseguito è stato quello descritto dalla normativa in materia UNI 11357, valutando l'eventuale effetto di tossicità alla massima concentrazione delle varie tipologie di biochar, utilizzando come specie dicotiledoni il cetriolo (Cucumis sativus L.) ed il crescione (Lepidium sativum L.), come monocotiledone il sorgo (Sorghum saccharatum M.). Per i biochar da stocchi di mais, rappresentativi di biomasse erbacee e con diverso grado di carbonizzazione, non si osservano effetti apprezzabili alle condizioni di uso agricolo. Nel caso dei biochar da pollina si osservano invece inibizioni alla germinazione sin dalle concentrazioni più basse. In particolare, quello pirolizzato a 400°C mostra un potenziale effetto tossico più marcato, probabilmente associato ad un contenuto di IPA e VFA superiore a quello degli altri biochar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interesse della ricerca per le applicazioni dei materiali organici all’elettronica è cresciuto ampiamente negli ultimi anni e alcuni gruppi di ricerca hanno studiato la possibilità di sfruttare materiali organici per costruire rivelatori diretti di raggi X. Nel 2003 si immaginava che l’assenza di elementi con numero atomico alto, propria della maggior parte degli organici, scoraggiasse il loro impiego come rivelatori. Tuttavia, la recente scoperta delle proprietà di fotoassorbimento dei monocristalli di 4-idrossicianobenzene (4HCB) potrebbe smentire questa ipotesi e, anzi, suscitare un certo interesse applicativo. Tra i possibili vantaggi operativi del 4HCB come rivelatore ci potrebbero essere, oltre al basso costo, tensioni di funzionamento sull’ordine dei volt e una certa flessibilità meccanica. L’obiettivo del seguente lavoro di tesi è esplorare la risposta che forniscono i monocristalli di 4HCB ai raggi X quando vengono installati su matrici flessibili con elettrodi di contatto in geometrie particolari, interspaziati di 22 µm. Sono state condotte varie misure di risposta elettrica al buio e sotto un fascio di raggi X e nel seguito saranno presentati i risultati. Il primo capitolo è dedicato ad un’introduzione teorica alla struttura dei materiali organici e ai modelli di trasporto dei semiconduttori organici. È evidenziato il fatto che non esiste ad oggi una teoria comprensiva ed efficace come per gli inorganici e vengono discussi alcuni metodi per determinare sperimentalmente la mobilità. La teoria Space Charge Limited Current (SCLC), che modella le caratteristiche corrente-tensione di un solido di piccolo spessore, quando il materiale ha bassa conducibilità e il suo trasporto di carica è mediato sostanzialmente da portatori dello stesso segno, viene introdotta nel capitolo 2. L’importanza di questo modello sta nel fatto che fornisce un metodo efficace per determinare sperimentalmente la mobilità dei portatori in molti materiali organici. Il campo dei rivelatori organici diretti di raggi X è piuttosto recente, e non esiste ancora un’efficace inquadratura teorica. Per questo motivo il capitolo 3 espone lo stato attuale dei rivelatori di raggi X e presenta i meccanismi alla base dei rivelatori inorganici diretti a stato solido e poi discute dei rivelatori organici indiretti già esistenti, gli scintillatori. La descrizione degli apparati sperimentali utilizzati per le misure viene demandata al capitolo 4, mentre il quinto capitolo espone i risultati ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esposizione di comportamenti e caratteristiche principali dei giunti incollati. Il metodo agli elementi finiti è stato studiato in modo da realizzare un modello accurato di un sistema fisico. L’analisi agli elementi finiti è stata utilizzata per effettuare una simulazione numerica di un double-strap joint in alluminio e in CFRP sotto un carico di trazione assiale. L’effetto di una modifica della distanza tra le lastre è stato studiato e i risultati confrontati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro è stato strutturato in due parti distinte. La prima riguarda il riordino delle informazioni contenute nella Banca Dati sui Castelli dell’Emilia Romagna ultimata nel 2004, arricchendo le informazioni con nuove fonti sia edite che inedite e fotografie, mettendo poi tutti i dati online sul sito Geologia Storia Turismo della Regione Emilia Romagna. La seconda parte ha riguardato invece l’analisi dell’area reggiana e, in particolare, di tre castelli: Rubiera, Salvaterra e Dinazzano che, a partire dalla fine del XII secolo, hanno costituito quella che è stata definita la Cintura sul Secchia, una vera e propria catena difensiva costruita dal comune di Reggio Emilia a protezione del suo confine orientale, quello con Modena. Nella prima parte si è predisposto l’avvio di un Atlante dei castelli esistenti e scomparsi dell’Emilia Romagna, strutturato provincia per provincia, con corredo di piante e grafici che indicano la consistenza del fenomeno nelle diverse aree della Regione; poi, per l’area reggiana, si è completata la disamina con una serie di grafici che mettono in luce la dislocazione per aree, la localizzazione sicura dei castelli in rapporto alla loro condizione attuale e la densità per aree del fenomeno. Infine si sono inserite informazioni ricavate da materiale inedito per verificare possibili sviluppi della Banca Dati. La seconda parte ha ricostruito non solo le vicende storico-costruttive dei castelli di Rubiera, Salvaterra e Dinazzano, ma ha approfondito anche la genesi e l’evoluzione di questo progetto di difesa territoriale: studiare questo progetto significa capire come il comune di Reggio Emilia, nell’arco di oltre un secolo, ha governato i propri castelli, come ne ha organizzato la difesa e la manutenzione e come ne ha progettato il popolamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo della tesi è diradare, almeno parzialmente, le incertezze che potrebbero essere presenti nella caratterizzazione a compressione di materiali compositi. Per quanto concerne la compressione, in un primo momento, non essendo ritenuta una caratteristica troppo rilevante, si considerava che il materiale composito avesse proprietà equivalenti a quelle in trazione. Solo successivamente, dai primi anni ’70, si sono iniziate ad indagare in modo approfondito e mirato le proprietà meccaniche a compressione di tali materiali. Si sono sviluppati e normati nel tempo vari metodi che vengono classificati in base al modo di applicazione del carico sul provino. Ci si è quindi proposti, basandosi anche sulle richieste mosse dalla Scuderia Toro Rosso di Faenza, di determinare, dopo aver analizzato tutti i vantaggi e gli svantaggi di ciascuna metodologia, quella migliore a cui attenersi per tutte le prove di compressione che seguiranno. A tale scopo, dopo una attenta e approfondita analisi dei vari metodi di prova, si è scelto di utilizzare il Combined Loading Compression (CLC) Test Fixture: attrezzatura leggera e molto compatta, che dimostra una affidabilità dei risultati superiore alle altre tecnologie. Si è, inoltre, deciso di testare laminati non unidirezionali, evitando così molte problematiche quali, ad esempio, quelle dovute all’utilizzo di tabs o al possibile insorgere di microbuckling delle fibre. Si è risaliti, poi, al valore di resistenza a compressione della lamina unidirezionale attraverso il metodo di calcolo indiretto del Back-Out Factor (BF). Di tale metodo si sono indagate le basi teoriche, a partire dalla teoria classica dei laminati, e si sono ricavate le formule necessarie per l'applicazione pratica sperimentale. Per quanto riguarda la campagna sperimentale, svolta presso i laboratori ENEA di Faenza – Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF), sono stati realizzati 6 laminati di materiale composito, ognuno con differente sequenza di laminazione e percentuale di fibre nelle diverse direzioni. Due laminati sono stati ottenuti impilando lamine unidirezionali preimpregnate, in modo da ottenere una configurazione cross-ply (0°\90°), due in configurazione angle-ply (0°\90°\±45°) e due materiali unidirezionali (0° e 90°). Da questi 6 laminati sono stati ricavati 12/13 provini ciascuno. I provini cross-ply e angle-ply sono stati testati per ricavarne la resistenza a compressione, da cui, poi, risalire a quella della lamina unidirezionale a 0° mediante il BF. Dal confronto dei risultati ottenuti attraverso l'applicazione combinata di CLC e Back-Out Factor, con i dati riportati nel datasheet ufficiale, si è avuta conferma dell'affidabilità della metodologia scelta. Per quanto concerne l'elaborazione dei dati ricavati dalle prove sperimentali, è stato utilizzato un opportuno programma realizzato con il software Matlab. Con l'estensione GUI, poi, è stata creata un'interfaccia grafica per agevolare la comprensione delle fasi di elaborazione anche ad un utente non esperto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di sviluppare un modello, l'architettura e la tecnologia per il sistema di denominazione del Middleware Coordinato TuCSoN, compresi gli agenti, i nodi e le risorse. Identità universali che rappresentano queste entità, sia per la mobilità fisica sia per quella virtuale, per un Management System (AMS, NMS, RMS) distribuito; tale modulo si occupa anche di ACC e trasduttori, prevedendo questioni come la tolleranza ai guasti, la persistenza, la coerenza, insieme con il coordinamento disincarnata in rete, come accade con le tecnologie Cloud. All’interno dell’elaborato, per prima cosa si è fatta una introduzione andando a descrivere tutto ciò che è contenuto nell’elaborato in modo da dare una visione iniziale globale del lavoro eseguito. Di seguito (1° capitolo) si è descritta tutta la parte relativa alle conoscenze di base che bisogna avere per la comprensione dell’elaborato; tali conoscenze sono relative a TuCSoN (il middleware coordinato con cui il modulo progettato dovrà interfacciarsi) e Cassandra (sistema server distribuito su cui si appoggia la parte di mantenimento e salvataggio dati del modulo). In seguito (2° capitolo) si è descritto JADE, un middleware da cui si è partiti con lo studio per la progettazione del modello e dell’architettura del modulo. Successivamente (3° capitolo) si è andati a spiegare la struttura e il modello del modulo considerato andando ad esaminare tutti i dettagli relativi alle entità interne e di tutti i legami fra esse. In questa parte si è anche dettagliata tutta la parte relativa alla distribuzione sulla rete del modulo e dei suoi componenti. In seguito (4° capitolo) è stata dettagliata e spiegata tutta la parte relativa al sistema di denominazione del modulo, quindi la sintassi e l’insieme di procedure che l’entità consumatrice esterna deve effettuare per ottenere un “nome universale” e quindi anche tutti i passaggi interni del modulo per fornire l’identificatore all’entità consumatrice. Nel capitolo successivo (5° capitolo) si sono descritti tutti i casi di studio relativi alle interazioni con le entità esterne, alle entità interne in caso in cui il modulo sia o meno distribuito sulla rete, e i casi di studio relativi alle politiche, paradigmi e procedure per la tolleranza ai guasti ed agli errori in modo da dettagliare i metodi di riparazione ad essi. Successivamente (6° capitolo) sono stati descritti i possibili sviluppi futuri relativi a nuove forme di interazione fra le entità che utilizzano questo modulo ed alle possibili migliorie e sviluppi tecnologici di questo modulo. Infine sono state descritte le conclusioni relative al modulo progettato con tutti i dettagli in modo da fornire una visione globale di quanto inserito e descritto nell’elaborato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nei decenni passati sono stati svolti numerosi studi su sistemi di generazione di potenza elettrica da applicare al settore spaziale, in particolar modo a satelliti e sonde. Ne sono un esempio le analisi riportate dalla Nasa oppure quelle condotte in paesi come il Giappone dall’agenzia spaziale JAXA. Uno dei sistemi spesso utilizzati per generare potenza elettrica si basa sull’applicazione di motori Stirling accoppiati ad un generatore lineare; la differenza di temperatura necessaria per il funzionamento del motore è ottenuta tramite il calore fornito dai radioisotopi di plutonio 238, mentre il raffreddamento del motore avviene mediante scambio termico con l’ambiente esterno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Realizzazione di uno strumento per la misura di campo magnetico e sua stima in valor massimo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato di tesi tratta la caratterizzazione del rendimento di un circuito convertitore di energia elettrica in energia meccanica. La conversione viene svolta con una procedura più complessa, ma più efficiente rispetto alla conversione classica. Il circuito studiato è soggetto alle problematiche legate all'energy harvesting, tuttavia ha il vantaggio di non necessitare di alimentazione esterna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.