412 resultados para protocolli, trasporto, ipv6


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tematiche relative alla compatibilità elettromagnetica (EMC) dei dispositivi elettronici (sia per il trasferimento dell'informazione che per trasmissione e conversione di potenza) sono di grande attualità a causa di molteplici fattori. Il primo è la larga diffusione di apparecchiature elettroniche e delle telecomunicazioni in svariati ambienti. Secondariamente tali dispositivi sono sempre più suscettibili al rumore per ragioni tecniche: -tensioni di alimentazione sempre più basse (alimentazione a batterie); -aumento della velocità dei dispositivi; -miniaturizzazione; -connettività wireless (spesso con diversi protocolli sullo stesso device). All'interno di questa tesi vengono trattate le interferenze elettromagnetiche (EMI) con riferimento ad una categoria specifica di prodotti (i caricabatterie)ed approfondendo in particolare le cause e le principali tecniche per limitarne l'effetto, al fine di ottenere la compatibilità dei dispositivi. Le tecniche per abbattere le EMI presentate sono poi applicate a dispositivi commerciali per valutarne gli effetti. Il lavoro è stato svolto presso la Deca di San Marino che ha messo a disposizione un laboratorio EMC (dotato di LISN PMM L3-64, Ricevitore PMM 9010/30P full-compliance e AbsorbingClamp TESEQ) ed alcuni propri prodotti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi verranno affrontati due argomenti principali. Il primo sono le tecnologie wearable, comprendendo anche la notazione più generica di tecnologie bearable, che si stanno sempre più diffondendo negli ultimi anni; il secondo sono le BAN (Body Area Network), reti di sensori e dispositivi posti sul corpo umano, utilizzate per rendere possibile la comunicazione e l'interazione fra i device wearable. Si partirà da una trattazione di tipo generico degli argomenti, descrivendo l'architettura fisica delle tecnologie, con focalizzazione sull'aspetto informatico prevalentemente che su quello elettronico e telecomunicazionistico. Si parlerà degli attuali impieghi dei dispositivi e delle reti, e delle loro probabili evoluzioni future. Si introdurranno poi i protocolli di comunicazione principali e se ne analizzeranno le differenze, decretando se sia o meno conveniente puntare su uno o sull'altro rispetto alle esigenze di progetto. Verrà introdotto il sistema operativo Android, descrivendo la sua architettura e fornendo le informazioni basilari per comprendere al meglio il rapporto esistente con la tecnologia Bluetooth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo di nuove tecnologie sempre più innovative e all’avanguardia ha portato ad un processo di costante rivisitazione e miglioramento di sistemi tecnologici già esistenti. L’esempio di Internet risulta, a questo proposito, interessante da analizzare: strumento quotidiano ormai diventato alla portata di tutti, il suo processo di rivisitazione ha portato allo sviluppo dell’Internet Of Things (IoT), neologismo utilizzato per descrivere l'estensione di Internet a tutto ciò che può essere trasformato in un sistema elettronico, controllato attraverso la rete mondiale che oggi può essere facilmente fruibile grazie all’utilizzo di Smartphone sempre più performanti. Lo scopo di questa grande trasformazione è quello di creare una rete ad-hoc (non necessariamente con un accesso diretto alla rete internet tramite protocolli wired o wireless standard) al fine di stabilire un maggior controllo ed una maggiore sicurezza, alla quale è possibile interfacciare oggetti dotati di opportuni sensori di diverso tipo, in maniera tale da condividere dati e ricevere comandi da un operatore esterno. Un possibile scenario applicativo della tecnologia IoT, è il campo dell'efficienza energetica e degli Smart Meter. La possibilità di modificare i vecchi contatori del gas e dell’acqua, tutt’oggi funzionanti grazie ad una tecnologia che possiamo definire obsoleta, trasformandoli in opportuni sistemi di metring che hanno la capacità di trasmettere alla centrale le letture o i dati del cliente, di eseguire operazioni di chiusura e di apertura del servizio, nonché operazioni sulla valutazione dei consumi, permetterebbe al cliente di avere sotto controllo i consumi giornalieri. Per costruire il sistema di comunicazione si è utilizzato il modem Semtech SX1276, che oltre ad essere low-power, possiede due caratteristiche rivoluzionarie e all’avanguardia: utilizza una modulazione del segnale da trasmettere innovativa e una grande capacità di rilevare segnali immersi in forti fonti di rumore ; la possibilità di utilizzare due frequenze di trasmissione diverse, 169 MHz e 868MHz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo su cui è stata basata questa Tesi di Laurea è stato quello di integrare la tecnologia delle Wireless Sensor Networks (WSN) al contesto dell'Internet delle cose (IoT). Per poter raggiungere questo obiettivo, il primo passo è stato quello di approfondire il concetto dell'Internet delle cose, in modo tale da comprendere se effettivamente fosse stato possibile applicarlo anche alle WSNs. Quindi è stata analizzata l'architettura delle WSNs e successivamente è stata fatta una ricerca per capire quali fossero stati i vari tipi di sistemi operativi e protocolli di comunicazione supportati da queste reti. Infine sono state studiate alcune IoT software platforms. Il secondo passo è stato quindi di implementare uno stack software che abilitasse la comunicazione tra WSNs e una IoT platform. Come protocollo applicativo da utilizzare per la comunicazione con le WSNs è stato usato CoAP. Lo sviluppo di questo stack ha consentito di estendere la piattaforma SensibleThings e il linguaggio di programmazione utilizzato è stato Java. Come terzo passo è stata effettuata una ricerca per comprendere a quale scenario di applicazione reale, lo stack software progettato potesse essere applicato. Successivamente, al fine di testare il corretto funzionamento dello stack CoAP, è stata sviluppata una proof of concept application che simulasse un sistema per la rilevazione di incendi. Questo scenario era caratterizzato da due WSNs che inviavano la temperatura rilevata da sensori termici ad un terzo nodo che fungeva da control center, il cui compito era quello di capire se i valori ricevuti erano al di sopra di una certa soglia e quindi attivare un allarme. Infine, l'ultimo passo di questo lavoro di tesi è stato quello di valutare le performance del sistema sviluppato. I parametri usati per effettuare queste valutazioni sono stati: tempi di durata delle richieste CoAP, overhead introdotto dallo stack CoAP alla piattaforma Sensible Things e la scalabilità di un particolare componente dello stack. I risultati di questi test hanno mostrato che la soluzione sviluppata in questa tesi ha introdotto un overheadmolto limitato alla piattaforma preesistente e inoltre che non tutte le richieste hanno la stessa durata, in quanto essa dipende dal tipo della richiesta inviata verso una WSN. Tuttavia, le performance del sistema potrebbero essere ulteriormente migliorate, ad esempio sviluppando un algoritmo che consenta la gestione concorrente di richieste CoAP multiple inviate da uno stesso nodo. Inoltre, poichè in questo lavoro di tesi non è stato considerato il problema della sicurezza, una possibile estensione al lavoro svolto potrebbe essere quello di implementare delle politiche per una comunicazione sicura tra Sensible Things e le WSNs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tramite il presente lavoro di tesi si intende effettuare un’analisi specifica su sedimenti provenienti dalla Pialassa Piomboni, una Zona Umida di Interesse Comunitario dal delicato equilibrio ed in continua evoluzione, che fin dalla sua nascita ha sempre assunto un ruolo di importanza sia ecologico-naturale che socio-economica, vista la posizione che la pone a metà tra il Canale Candiano, il Porto di Ravenna, la zona industriale e il mare Adriatico. Oltre ad arricchire il database di dati, l’obiettivo principale dello studio è ottenere una nuova informazione per la valutazione dello stato di qualità dei sedimenti con un’indagine ancora più specifica: si analizza la distribuzione che i metalli pesanti assumono in relazione alle diverse frazioni e caratteristiche del materiale presente tramite estrazioni sequenziali, effettuate secondo la procedura ufficiale per l’analisi di questi tipi di suoli, recentemente approvata e standardizzata a livello europeo dalla BCR (European Community Bureau of Reference) e migliorata da esperimenti interlaboratorio (Rauret et al., 1999). Attraverso attacchi con reagenti sempre più forti, si valuta a quale frazione del sedimento (scambiabile, riducibile o ossidabile) i metalli risultino maggiormente associati, valutandone mobilità e disponibilità in relazione a cambiamenti di condizioni fisiche e chimiche in cui si trova il materiale, come il variare di pH e degli equilibri ossido-riduttivi. E’ stato inoltre elaborato un inquadramento dal punto di vista geochimico, considerando i livelli di concentrazione di fondo degli elementi già naturalmente presenti in zona. Le concentrazioni totali sono infine stati confrontati con il Manuale ICRAM (2007), che fornisce linee guida per la valutazione della qualità dei sedimenti e la loro movimentazione, per poterne ipotizzare l’eventuale destino, scelta spesso problematica nella gestione di sedimenti in ambito portuale. In sintesi, questo lavoro si inserisce all’interno di un ampio progetto di gestione, approfondendo la letteratura scientifica presente sui criteri di analisi di qualità dei sedimenti e sulle problematiche di diffusione, trasporto e destino finale dei contaminanti nell’ambiente, verificando l’applicazione della procedura analitica di estrazione sequenziale, metodologicamente complessa e soggetta a migliorie e modifiche, riconsiderata in tempi recenti per la sua efficacia e per i vantaggi che comporta grazie all’acquisizione di dati ad alto contenuto di informazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La crescente espansione del traffico aereo degli ultimi anni obbliga i progettisti delle infrastrutture aeroportuali ad analizzare nel dettaglio i vari processi presenti negli aeroporti. Tali processi possono essere relativi al terminal, e quindi legati ai passeggeri, e relativi alle operazioni di volo, e pertanto legati agli aeromobili. Una delle aree più critiche dell’infrastruttura aeroportuale è il Terminal, in quanto è l’edificio che permette il trasferimento dei passeggeri dal sistema di trasporto terrestre a quello aeronautico e viceversa. All’interno del Terminal si hanno diversi processi, intesi come procedure, azioni o misure, che il passeggero è tenuto a sostenere prima, durante e dopo la partenza. L’aspetto più critico, per ciò che concerne i rischi di congestione dovuti alla molteplicità di processi, è il viaggio del passeggero in partenza. Il passaggio tra processi successivi deve essere visto con l’obiettivo di rendere il percorso del passeggero il più facile e semplice possibile. Nel presente elaborato si vuole focalizzare l’attenzione sui processi di gestione dei passeggeri presenti nei terminal aeroportuali valutandone le rispettive criticità. Per una buona analisi di questi processi bisognerebbe valutare il sistema reale. Per far fronte a questa necessità si fa uso della simulazione del sistema reale attraverso software specifici. La simulazione è il processo di progettazione e creazione di un modello computerizzato di un sistema reale. In questo lavoro di tesi, si vogliono, quindi, riportare le peculiarità dei processi che caratterizzano il viaggio dei passeggeri in partenza all’interno dei terminal aeroportuali, e valutarne le criticità attraverso l’applicazione ad un caso reale mediante l’utilizzo di uno dei maggiori software di simulazione in commercio, ovvero Arena Simulation Software della casa americana Rockwell. Pertanto nei primi capitoli vengono descritte le caratteristiche dei processi presenti in un terminal aeroportuale e le proprietà della simulazione. Mentre nei successivi capitoli si è riportato la simulazione di un caso reale effettuata con il software Arena.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio degli aspetti procedurali e dosimetrici in angiografie periferiche che utilizzano la CO2 come mezzo di contrasto. La tecnica angiografica consiste nell’imaging radiologico di vasi sanguigni tramite l’iniezione di un mezzo di contrasto, e il suo uso è in costante incremento a causa dell’aumento di pazienti con malattie vascolari. I mezzi di contrasto iodati sono i più comunemente utilizzati e permettono di ottenere immagini di ottima qualità, ma presentano il limite di una elevata nefrotossicità. La CO2 è considerata un’interessante alternativa al mezzo iodato, per la sua acclarata biocompatibilità, soprattutto per pazienti con elevati fattori di rischio (diabete e/o insufficienza renale). Il suo utilizzo presenta comunque alcuni aspetti problematici, dovuti allo stato gassoso e al basso contrasto intrinseco rispetto alla soluzione iodata. Per quest’ultimo motivo si ritiene generalmente che l’utilizzo della CO2 comporti un aumento di dose rispetto ai mezzi di contrasto tradizionali. Il nostro studio, effettuato su diversi apparati radiologici, ha dimostrato che i parametri di emissione radiologica sono gli stessi per i protocolli di angiografia tradizionale, con iodio, e quelli che utilizzano CO2. Questa evidenza suggerisce che i protocolli CO2 operino solo sul trattamento delle immagini ottenute e non sulla modalità di acquisizione, e dal punto di vista dosimetrico l’angiografia con CO2 è riconducibile all’angiografia tradizionale. L’unico fattore che potrebbe portare a un effettivo incremento di dose al paziente è un allungamento dei tempi di scopia e di procedura, che andrebbe verificato con una campagna di misure in ambito clinico. Sulla base della stessa evidenza, si ritiene che la visualizzazione della CO2 possa essere ulteriormente migliorata attraverso l’ottimizzazione dei parametri di emissione radiologica (kVp, frame rate e durata degli impulsi) attualmente predisposti per l’uso di mezzi di contrasto iodati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato di tesi, viene progettata ed implementata una soluzione per gestire il processo di handover in ambiente Android. Tale proposta, è costituita da un algoritmo in grado di gestire automaticamente le interfacce di connessione dei dispostivi, in relazione alle preferenze e agli spostamenti effettuati dall'utente. Le prove sperimentali effettuate, confermano che tale proposta è una buona base per risolvere il problema dell'handover e si presta bene a cooperare con altri protocolli quali ABPS (Always Best Packet Switching). Inoltre l'applicazione si presta bene ad un semplice utilizzo e può essere impiegata anche come servizio eseguito in background, non richiedendo frequenti interazioni da parte dell'utente. Oltre all'algoritmo citato in precedenza, sono stati proposti altri dettagli implementativi, non presenti in letteratura. In particolare, vengono modificate alcune impostazioni di sistema, accedendo agli opportuni file, in modo tale che Android gestisca correttamente le scansioni delle interfacce e la loro attivazione/disattivazione.