996 resultados para indirizzo :: 711 :: Curriculum C: Ambiente marino


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi ha previsto l'acquisizione e l'elaborazione di dati geofisici al fine di determinare la risposta sismica di tre siti della Rete Accelerometrica Nazionale (RAN), collocandosi all'interno del progetto sismologico S2-2014 Constraining Observations into Seismic Hazard gestito dal Dipartimento di Protezione Civile Nazionale e dall’Istituto Nazionale di Geofisica e di Vulcanologia. Tale necessità nasce dal fatto che il più delle volte le informazioni per la corretta caratterizzazione geofisica dei siti ospitanti le stazioni accelerometriche risultano essere insufficienti, rendendo così i dati acquisiti non idonei per l'utilizzo in sede di calcolo delle leggi di attenuazione dalle quali successivamente vengono derivate le mappe di pericolosità sismica a livello nazionale e locale. L'obbiettivo di questo lavoro di tesi è stato quello di determinare l'eventuale presenza di effetti di sito o effetti di interazione suolo-struttura, per tre stazioni ubicate in Friuli-Venezia Giulia (codici stazioni MAI, TLM1 e BRC), capaci di amplificare il moto del terreno nella parte di suolo compresa fra il bedrock sismico (inteso come strato che non amplifica) e il piano campagna. Le principali tecniche utilizzate sono le seguenti: HVSR ossia rapporto spettrale della componente orizzontale su quella verticale da misure di rumore ambientale acquisite e EHV ovvero rapporto spettrale della componente orizzontale su verticale da registrazione di terremoti scaricate dal database accelerometrico italiano ITACA. I risultati delle due tecniche sono stati poi confrontati al fine di verificare un'eventuale congruenza, portando alle seguenti conclusioni. La caratterizzazione della stazione TLM1 ha portato alla importante conclusione che il sito non è idoneo per l’acquisizione di dati accelerometrici da utilizzare per il calcolo di leggi predittive o di attenuazione. La stazione accelerometrica è ospitata all’interno di un box in lamiera su una collina nel comune di Verzegnis (UD). Il problema principale che riguarda questo sito è la vicinanza della diga Ambiesta e del relativo invaso. La stazione di BRC è collocata all’interno di una cabina di trasformazione dell’ENEL sul lato destro del torrente Cellina, al suo ingresso nel lago di Barcis (PN). Le condizioni topografiche della zona, molto impervie, non consentono la corretta acquisizione dei dati. Un ulteriore fattore di disturbo è dato dall’interazione suolo-struttura, causata dalla cabina ENEL in cui è alloggiata la strumentazione. La caratterizzazione della stazione MAI collocata all'interno di una cabina ENEL nel centro del comune di Majano (UD) ha portato alla conclusione che questa è l'unica delle tre stazioni considerate capace di acquisire dati utilizzabili per il processo di validazione per le stime di pericolosità sismica. Questo perché le condizioni topografiche dell’area, pianura con stratificazione 1D, hanno permesso di sfruttare a pieno le potenzialità delle metodologie utilizzate, consentendo anche la ricostruzione di profili di velocità delle onde di taglio S con i quali è stata assegnata la categoria C del suolo previsto dall'approccio semplificato presente nelle NTC08.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il fine ultimo di questo lavoro è di analizzare ed interpretare alcuni parametri morfometrici che riguardano bacini in roccia e canali di colate detritiche nelle Dolomiti, estrapolati tramite l’analisi di un DEM derivato da rilievo LiDAR. La procedura, implementata in ambiente GIS, è basata sull’analisi di mappe raster morfometriche derivate dalla rappresentazione digitale del terreno. L’elevata risoluzione di questi modelli digitali del terreno (1m) ha permesso uno studio approfondito della morfologia delle colate detritiche nell’area alpina. L’area di studio, nel comune di Cortina D’Ampezzo, è caratterizzata da frequenti eventi di colata detritica a causa della particolare e caratteristica morfologia dolomitica che si sviluppa in altezza con imponenti testate rocciose ed alla loro base con conoidi detritici. I bacini di roccia sono di piccole dimensioni, mentre la lunghezza dei canaloni può variare in base alla pendenza e alla litologia del luogo. In questo tipo di ambiente la causa principale di innesco di tali fenomeni sono i temporali ad elevata intensità i quali trasformano il materiale di deposito in un fluido che scende, grazie alla pendenza, con velocità elevate attraverso i canali. Raggiunte pendenze basse il fluido si arresta e il materiale viene depositato. In questo studio le zone d’innesco di colata detritica sono state indagate con metodologie quali la fotointerpretazione confrontata con il DEM e la modellazione spazialmente distribuita, una procedura automatica volta ad identificare i possibili punti d’innesco e basata sulla relazione tra pendenza locale e area contribuente. Tramite i punti d’innesco individuati con fotointerpretazione sono stati estratti i relativi bacini di colata. In principio sono stati analizzati e interpretati i parametri morfologici e idrologici che caratterizzano i bacini in roccia e i loro rispettivi canali di colata tramite istogrammi di frequenza. Successivamente sono stati confrontati i parametri più significativi attraverso l’uso di grafici a dispersione. Nello studio è stata posta particolare attenzione soprattutto a quei bacini considerati attivi tramite la raccolta di fonti storiche, con l’obbiettivo di analizzare dettagliatamente i parametri morfometrici che risultano essere direttamente legati all’attività dei bacini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il rilascio di detriti d’usura metallici è una grave problematicità connessa ai sistemi protesici, e principalmente riguarda le protesi d’anca ad accoppiamento metallo su metallo in lega CoCr. La presenza di un livello di ioni Co nel siero che supera la soglia di tossicità è correlata a metallosi periprotesica eal fallimento del l’impianto. Recentemente è emersa un’altra casistica, presumibilmente connessa alla distribuzione e accumulo di questi ioni in tessuti di organi anche lontani dall’impianto, che si manifesta con una sintomatologia sistemica analoga a casi noti di avvelenamento da Cobalto. Nel contesto di questa nuova patologia sarebbe di grande interesse la possibilità di monitorare in-vivo la distribuzione del Cobalto rilasciato da protesi articolari, in organi o tessuti di pazienti che manifestano alti ivelli ionici di Co nel siero utilizzando metodiche non invasive come l’NMR. L’ipotesi sperimentale di applicabilità prende spunto dalle proprietà magnetiche che alcuni composti del Cobalto possono presentare nell’organismo. In questo lavoro sperimentale, nato dalla collaborazione tra il laboratorio NMR del DIFA dell’Università di Bologna e l’Istituto Ortopedico Rizzoli (IOR) di Bolgna, si presentano i risultati relativi allo studio di fattibilità condotto con diverse metodiche di rilassometria NMR su campioni biologici in presenza di Co. L’obiettivo riguarda la caratterizzazione delle proprietà di rilassamento con elettromagnete a temperatura ambiente e fisiologica, e la valutazione delle dinamiche molecolari dai profili NMRD ottenuti alle basse frequenze con metodica Fast Field Cycling, dei nuclei 1H di tali sistemi in presenza di Co.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recentemente molti studi in ambiente marino sono stati focalizzati sui possibili impatti dovuti alle variazioni del pH degli oceani, causato dall’aumento delle immissioni di CO2 nell’atmosfera. Tra i possibili effetti nocivi, l’acidificazione oceanica può indurre cambiamenti nelle abbondanze e nelle distribuzioni delle engeneer species, con conseguenti ripercussioni sulla fauna associata. Esempio tipico di engeneer species sono le macroalghe che sono capaci di creare, lungo le coste rocciose, habitat diversi a seconda della specie che riesce ad attecchire. Tra le specie animali che dominano in questi habitat troviamo i copepodi Arpacticoidi, piccoli crostacei che svolgono un ruolo chiave all’interno delle reti trofiche. Per questi motivi lo scopo di questo lavoro è valutare possibili effetti dell’acidificazione sulle taxocenosi a copepodi Arpacticoidi associate alle macroalghe. Lo studio è stato svolto ad Ischia, nella zona nei pressi del Castello Aragonese, dove vi sono dei vents di origine vulcanica che emettono CO2 e formano un gradiente naturale di acidificazione lungo un’area di circa 300m, suddivisibile in 3 stazioni a differenti valori medi di pH. L’analisi delle taxocenosi è stata svolta a livello di generi e famiglie di Arpacticoidi, in termini di abbondanze e di struttura di comunità, su differenti specie algali raccolte lungo il gradiente di acidificazione. Mentre non si notano differenze significative per le famiglie, la struttura di comunità analizzata a livello di generi di copepodi Arpacticoidi mostra una suddivisione in due comunità ben distinte, delle quali una appartenente alla stazione acidificata e un'altra alle stazioni di controllo e moderatamente acidificata. Tale suddivisione si conferma anche prendendo in considerazione la diversa complessità strutturale delle alghe. Per quanto riguarda le abbondanze, sia a livello di famiglie che di generi, queste mostrano generalmente valori più elevati nella stazione moderatamente acidificata e valori più bassi nella stazione più acidificata. C’è però da considerare che se non si tiene conto della complessità algale queste differenze sono significative per le famiglie Ectinosomatidae, Thalestridae e per il genere Dactylopusia, mentre, se si tiene conto della complessità algale, vi sono differenze significative per la famiglia Miraciidae e per i generi Amonardia e Dactylopusia. In definitiva questo studio sembrerebbe evidenziare che le taxocenosi a copepodi Arpacticoidi siano influenzate sia dalla differente complessità algale, che dall’acidificazione oceanica. Inoltre mostra che, in prospettiva di studi futuri, potrebbe essere necessario focalizzarsi su specie algali ben definite e su un'analisi tassonomica dei copepodi Arpacticoidi approfondita fino al livello di specie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I paradigmi di programmazione più utilizzati nella realizzazione di sistemi embedded presentano delle limitazioni, in quanto non consentono di modellare alcuni aspetti fondamentali. Il paradigma ad agenti presenta delle caratteristiche che consentono di modellare alcuni aspetti fondamenetali di un sistema embedded, oltre a fornire un livello di astrazione più elevato. All'interno di questa tesi verranno mostrati i concetti fondamentali di questo paradigma, mostrando inoltre i costrutti di base di un linguaggio ad agenti come Jason. Nella programmazione ad agenti, l'ambiente riveste un ruolo fondomentale. All'interno di questa trattazione verrà introdotto un paradigma per la programmazione di ambienti, descrivendo inoltre il framework di riferimento: CArtAgo. Dopo aver descritto i concetti e gli strumenti per applicare il paradigma ad agenti, verrà proposto un metodo per la realizzazione di sistemi embedded tramite l'applicazione di Jason sulla scheda di prototipazione Arduino.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha lo scopo di indagare le tecnologie disponibili per la realizzazione di linguaggi di programmazione e linguaggi domain specific in ambiente Java. In particolare, vengono proposti e analizzati tre strumenti presenti sul mercato: JavaCC, ANTLR e Xtext. Al termine dell’elaborato, il lettore dovrebbe avere un’idea generale dei principali meccanismi e sistemi utilizzati (come lexer, parser, AST, parse trees, etc.), oltre che del funzionamento dei tre tools presentati. Inoltre, si vogliono individuare vantaggi e svantaggi di ciascuno strumento attraverso un’analisi delle funzionalità offerte, così da fornire un giudizio critico per la scelta e la valutazione dei sistemi da utilizzare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo dell'elaborato di tesi è il comprendere l'organizzazione di un azienda tipo al fine di ottimizzarla e renderla più efficiente. Per raggiungere questo obiettivo è stato progettato un sistema client server che prende in gestione le commissioni di un’azienda. Il sistema permette la suddivisione del lavoro, i progetti sono formati da moduli e i moduli composti da attività. C’è un capo progetto e un responsabile per ogni modulo secondo la gerarchia aziendale. Ogni qualvolta un impiegato effettua una mansione per un’attività segnala le ore svolte attraverso un report, costituendo così il timetracking. Il sistema è stato sviluppato per dispositivi Android.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce all'interno di uno studio dal titolo: "Strategia di posizionamento multi-step come approccio pragmatico per ridurre il rischio di encefalopatia epatica post-TIPS (shunt trans-giugulare porto-sistemico intraepatico) in pazienti cirrotici con ascite refrattaria". Il progetto di tesi si è concentrato sull'analisi dei segnali ottenuti tramite DCE MRI, con lo scopo di implementare in ambiente MatLab due modelli differenti (Dual input - Mono compartment e Dual input - Dual compartment) che descrivono la cinetica del tracciante all'interno del sistema vascolare epatico e valutare l'efficacia dei parametri di perfusione associati nella descrizione delle variazioni in termini di microcircolazione introdotte dall'inserimento del TIPS. Inizialmente si sono voluti valutare, tramite simulazione, gli effetti in termini di amplificazione del rumore e stima dei parametri perfusionali dell'approssimazione lineare nella conversione da intensità di segnale MR a concentrazione di mezzo di contrasto. Successivamente, sempre attraverso simulazioni, per entrambi i modelli considerati è stato scelto uno schema di model-fitting e quindi testata l'affidabilità in termini di accuratezza e precisione delle stime dei parametri ottenute in funzione del livello di rumore associato alle curve di intensità di segnale. Parallelamente all'implementazione dei modelli per la stima di parametri di perfusione, sono stati realizzati dei phantom con l'obiettivo di simulare il parenchima epatico prima e dopo l'arrivo del mezzo di contrasto e poter testare la sequenza utilizzata durante l'acquisizione dei dati su paziente. Infine sono stati considerati gli esami di DCE MRI effettuati su un campione di nove pazienti pre e post-TIPS, utilizzando per l'analisi dei segnali entrambi i modelli implementati in fase di simulazione e successivamente valutando le variazioni nel valori associati ai parametri di perfusione introdotte dall'inserimento del TIPS.