172 resultados para Reúso


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di indagine del lavoro è il movimento ambientalista e culturale delle Città in Transizione che rappresentano esperimenti di ri-localizzazione delle risorse volte a preparare le comunità (paesi, città, quartieri) ad affrontare la duplice sfida del cambiamento climatico e del picco del petrolio. A partire dal Regno Unito, la rete delle Transition Towns si è in pochi anni estesa significativamente e conta oggi più di mille iniziative. L’indagine di tale movimento ha richiesto in prima battuta di focalizzare l’attenzione sul campo disciplinare della sociologia dell’ambiente. L’attenzione si è concentrata sul percorso di riconoscimento che ha reso la sociologia dell’ambiente una branca autonoma e sul percorso teorico-concettuale che ha caratterizzato la profonda spaccatura paradigmatica proposta da Catton e Dunlap, che hanno introdotto nel dibattito sociologico il Nuovo Paradigma Ecologico, prendendo le distanze dalla tradizionale visione antropocentrica della sociologia classica. Vengono poi presentate due delle più influenti prospettive teoriche della disciplina, quella del Treadmill of Production e la più attuale teoria della modernizzazione ecologica. La visione che viene adottata nel lavoro di tesi è quella proposta da Spaargaren, fautore della teoria della modernizzazione ecologica, secondo il quale la sociologia dell’ambiente può essere collocata in uno spazio intermedio che sta tra le scienze ambientali e la sociologia generale, evidenziando una vocazione interdisciplinare richiamata anche dal dibattito odierno sulla sostenibilità. Ma le evidenze empiriche progressivamente scaturite dallo studio di questo movimento che si autodefinisce culturale ed ambientalista hanno richiesto una cornice teorica più ampia, quella della modernità riflessiva e della società del rischio, in grado di fornire categorie concettuali spendibili nella descrizione dei problemi ambientali e nell’indagine del mutamento socio-culturale e dei suoi attori. I riferimenti empirici dello studio sono tre specifiche realtà locali in Transizione: York in Transition per il Regno Unito, Monteveglio (Bo) e Scandiano (Re) in Transizione per l’Italia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La società dei consumi ha reso ogni ambito vitale suscettibile di mercificazione. Il capitalismo ha da tempo svestito la prassi produttiva dei suoi elementi più pesanti per vestire i panni della dimensione simbolica e culturale. Il consumo fattosi segno, dimensione immateriale delle nostre vite materiali, ha finito per colonizzare l'ambito dell'esperienza e, quindi, della vita stessa. Il consumo diventa, innanzitutto, esperienza di vita. Una esperienza continuamente cangiante che ci permette di vivere numerose vite, ognuna diversa. Ciò che è stabile è il paradigma consumistico che investe la nostra stessa identità, l'identità dei luoghi, l'identità del mondo. Il nomadismo è la dimensione più tipica del consumo, così come la perenne mobilità della vita è la dimensione propria dell'epoca globale. Tuttavia, le nuove forme di consumerismo politico, etico e responsabile, conseguenti al montare dei rischi globali, investendo proprio l’ambito dell’esperienza e del consumo, contribuiscono a modificare i comportamenti in senso “riflessivo” e “glocale”. L’ambito turistico, rappresentando al contempo il paradigma esperienziale e quello della mobilità globale, può diventare allora l’osservatorio privilegiato per indagare queste stesse forme riflessive di consumo, le quali forniscono un significato del tutto nuovo tanto all’esperienza quanto al consumo stesso. Il lavoro di tesi vuole allora approfondire, attraverso lo studio di caso, il modo in cui nuove forme emergenti di turismo responsabile possano rappresentare una chiave d’accesso a nuove forme di sviluppo sostenibile dei territori locali in contesti di prima modernizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di tesi si sviluppa a partire dalla proposta di espansione lineare della città di Bogotá, lungo un asse infrastrutturale che attraversa diversi comuni vicini alla città. Il tema principale del lavoro di tesi è relativo al confronto con uno dei limiti principali di questa espansione: il Rio Bogotà. L'obiettivo è quello di risolvere a livello urbano il rapporto di tale elemento naturale con l'edificato, in particolare il grande edificio pubblico e le abitazioni. Questo sarà reso possibile attraverso lo studio di valide soluzioni strutturali che tengano conto dei problemi derivanti da una zona fortemente sismica e soggetta ad inondazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi analizza la problematica della mancanza di redattori di diagrammi E-R in grado di realizzare schemi relazionali basati sulla notazione di Chen e sulla notazione estesa. In particolare, dopo un'analisi di pregi e difetti sullo stato dell'arte dei principali strumenti già esistenti (in grado di realizzare diagrammi E-R con altre notazioni), si passa a descrivere nel dettaglio l'applicativo SharpER Diagram Editor, un progetto ex novo che consente la redazione di diagrammi E-R in notazione estesa. Vengono accuratamente descritte le varie fasi che hanno portato alla realizzazione del progetto, dall'analisi dei requisiti e la modellazione, all'implementazione e al test. Per finire vengono forniti interessanti spunti per poter proseguire il lavoro iniziato, il che è reso possibile dalla licenza con cui il software viene rilasciato ossia GPLv3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ripresa degli studi sulla manualistica del recupero ha contribuito, attraverso una lettura tecnica vista in prospettiva storica, a diffondere sensibilità conoscitiva e consapevolezza del patrimonio premoderno. Tuttavia l’esigenza di superare il tracciato delineato dall’uso dei manuali di recupero – da molti intesi, semplicisticamente, come cataloghi per soluzioni architettoniche di ripristino e ricostruzione – ha reso indispensabile una riflessione sul reale bisogno di questi strumenti e sulle loro ripercussioni operative. Se i manuali, spesso, esprimono una visione statica e totalizzante dell’edilizia storica, l’atlante dichiara una concezione dinamica e “sempre aperta”, in cui ogni elemento rilevato è caso a sé. L’atlante fa, quindi, riferimento ad una concezione “geografica” in cui la catalogazione non è esaustiva e dogmatica ma, contrariamente, dà luogo ad un repertorio di casi criticamente analizzati nell’ottica della conoscenza e della conservazione. L’obiettivo della ricerca non è consistito, pertanto, nel descrivere la totalità dei caratteri costruttivi e delle loro combinazioni, ma nell’individuare casi singoli che sono letti ed interpretati all’interno del loro contesto storico-costruttivo e che valgono quale monito per un’azione progettuale consapevole, orientata al minimo intervento e alla compatibilità fisico-meccanica, figurativa e filologica. Nello specifico la ricerca, collocata in un riferimento temporale compreso tra il XIII e il XIX secolo, ha approfondito i seguenti caratteri: solai lignei, appartato decorativo in cotto e portali. Attraverso un approccio interdisciplinare lo studio si è proposto di contribuire alla costituzione di una metodologia di ricerca sulle tecniche costruttive storiche, ravvisando nel momento conoscitivo la prima fase del progetto di conservazione. È indiscusso, infatti, il solido legame che esiste tra conoscenza, progetto ed operatività. Solo attraverso la consapevolezza storica e architettonica del manufatto è possibile individuare scelte conservative criticamente vagliate ed operare in funzione della specificità del caso in esame e delle sue reali necessità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ictus rappresenta una delle principali cause di invalidità poiché compromette la deambulazione, incrementando l’incidenza di cadute nei soggetti colpiti. Lo studio della stabilità motoria è fondamentale per l’identificazione dei soggetti a rischio di caduta. I diversi indicatori clinici attualmente utilizzati negli ospedali non sono in grado di fornire una valutazione quantitativo predittiva della stabilità della deambulazione. Lo scopo di questa tesi è indagare una serie di misure sperimentali e valutarne il possibile utilizzo ad integrazione o sostituzione di scale cliniche per l’analisi della stabilità motoria e la prevenzione del rischio di cadute. Analizzando il segnale di accelerazione del centro di massa corporeo di 33 soggetti post stroke sono stati ottenuti gli indici strumentali di interesse. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) e indici strumentali. Lo studio presente ha reso note importanti correlazioni tra parametri clinici e strumentali, che permettono di affermare l’utilità di tali indici strumentali per una valutazione dei soggetti a rischio di caduta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La velocità di cambiamento che caratterizza il mercato ha posto l'attenzione di molte imprese alla Business Analysis. La raccolta, la gestione e l'analisi dei dati sta portando numerosi benefici in termini di efficienza e vantaggio competitivo. Questo è reso possibile dal supporto reale dei dati alla strategia aziendale. In questa tesi si propone un'applicazione della Business Analytics nell'ambito delle risorse umane. La valorizzazione del Capitale Intellettuale è fondamentale per il miglioramento della competitività dell'impresa, favorendo così la crescita e lo sviluppo dell'azienda. Le conoscenze e le competenze possono incidere sulla produttività, sulla capacità innovativa, sulle strategie e sulla propria reattività a comprendere le risorse e le potenzialità a disposizione e portano ad un aumento del vantaggio competitivo. Tramite la Social Network Analysis si possono studiare le relazioni aziendali per conoscere diversi aspetti della comunicazione interna nell'impresa. Uno di questi è il knowledge sharing, ovvero la condivisione della conoscenza e delle informazioni all'interno dell'organizzazione, tema di interesse nella letteratura per via delle potenzialità di crescita che derivano dal buon utilizzo di questa tecnica. L'analisi si è concentrata sulla mappatura e sullo studio del flusso di condivisione di due delle principali componenti della condivisione di conoscenza: sharing best prectices e sharing mistakes, nel caso specifico si è focalizzato lo studio sulla condivisione di miglioramenti di processo e di problematiche o errori. È stata posta una particolare attenzione anche alle relazioni informali all'interno dell'azienda, con l'obiettivo di individuare la correlazione tra i rapporti extra-professionali nel luogo di lavoro e la condivisione di informazioni e opportunità in un'impresa. L'analisi delle dinamiche comunicative e l'individuazione degli attori più centrali del flusso informativo, permettono di comprendere le opportunità di crescita e sviluppo della rete di condivisione. La valutazione delle relazioni e l’individuazione degli attori e delle connessioni chiave fornisce un quadro dettagliato della situazione all'interno dell'azienda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivi: L’obiettivo dello studio è stato quello di valutare l’utilizzo del cerchiaggio cervicale, in relazione alle diverse indicazioni per cui è stato eseguito, presso la Clinica Ostetrica e Ginecologica del Policlinico Universitario Sant’Orsola-Malpighi di Bologna, tra Gennaio 2001 e Dicembre 2013. Outcome secondario e’ stato quello di paragonare i risultati ottenuti con le più recenti evidenze scientifiche per valutare come esse abbiano influenzato l’utilizzo del cerchiaggio nel nostro centro. Materiali e metodi: valutazione osservazionale di tutte le pazienti sottoposte a cerchiaggio cervicale presso il nostro centro. La popolazione di studio e’ stata suddivisa in 5 gruppi in relazione all’indicazione per cui il cerchiaggio e’ stato eseguito: cerchiaggio elettivo (I), eco indicato (II), d’emergenza (III), in gravidanze gemellari (IV) e in gravidanze trigemine (V). Di tutte le pazienti e’ stato valutato l’outcome della gravidanza (epoca gestazionale al parto, peso neonatale, Apgar score) e l’appropriatezza dell’indicazione al cerchiaggio. Risultati: nel corso dei 13 anni in studio sono stati eseguiti 191 cerchiaggi: 109 nel I gruppo, 24 nel II, 39 nel III, 13 e 6 rispettivamente nel IV e V gruppo. In un caso il cerchiaggio e’ stato eseguito per via laparoscopica prima dell’insorgenza della gravidanza. La distribuzione dei diversi tipi di cerchiaggio e’ cambiata: dal 2007 non vengono seguiti cerchiaggi in gravidanze multiple, sono diminuiti quelli elettivi e sono aumentati i cerchiaggi d’emergenza pur essendo i casi con morbilità materna maggiore: in una paziente si e’ verificato un aborto settico con shock settico materno e si e’ reso necessario un intervento di isterectomia. Conclusioni: l'applicazioni di indicazioni piu' selettive all’esecuzione del cerchiaggio hanno determinato una forte riduzione dell’utilizzo da tale procedura. L'aumento dell'utilizzo del cerchiaggio d’emergenza e' legato al fatto che rappresenta l’ultima chance per convertire un aborto inevitabile in un parto di neonato vivo in casi estremi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obbiettivo del lavoro è quello di delimitare uno spazio critico che consenta di ripensare il concetto di modernità nelle culture ispanoamericane degli inizi del XX secolo. In questa direzione, si è deciso di focalizzare l’attenzione su un’opera letteraria, quella dell’uruguaiano Julio Herrera y Reissig, del tutto particolare se comparata al resto delle produzioni estetiche a essa più immediatamente contigue. Tornare a leggere Herrera y Reissig equivale, infatti, nella sostanza, a rimettere mano criticamente a tutta l’epoca modernista, interpretandola non in senso unitario, bensì plurale e frammentario. Spunto di partenza dell’analisi sono state le coordinate culturali comuni in cui quelle estetiche si sono determinate e sviluppate, per poi procedere verso una moltiplicazione di percorsi in grado di rendere conto della sostanziale discrepanza di mezzi e finalità che intercorre fra Julio Herrera y Reissig e gran parte del Modernismo a lui contemporaneo. Mantenendo come base metodologica i presupposti dell’archeologia culturale foucauldiana, è stato possibile rintracciare, nell’opera dell’uruguaiano, un eterogeneo ma costante movimento di riemersione e riutilizzo delle più svariate esperienze del pensiero – estetico e non – occidentale. Nelle particolarità d’uso a cui la tradizione è sottomessa nella scrittura di Herrera y Reissig si è reso così possibile tornare a ragionare sui punti focali dell’esperienza della modernità: il legame fra patrimonio culturale e attualità, la relazione fra sedimentazione tradizionale e novità, nonché, in definitiva, le modalità attraverso le quali alla letteratura è consentito di pensare e dire la propria storia – passata, presente e futura – e, in conseguenza, metabolizzarla, per tornare ad agire attivamente su di essa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caratterizzazione di sedimenti contaminati è un problema complesso, in questo lavoro ci si è occupati di individuare una metodologia di caratterizzazione che tenesse conto sia delle caratteristiche della contaminazione, con analisi volte a determinare il contenuto totale di contaminanti, sia della mobilità degli inquinanti stessi. Una adeguata strategia di caratterizzazione può essere applicata per la valutazione di trattamenti di bonifica, a questo scopo si è valutato il trattamento di soil washing, andando ad indagare le caratteristiche dei sedimenti dragati e del materiale in uscita dal processo, sabbie e frazione fine, andando inoltre a confrontare le caratteristiche della sabbia in uscita con quelle delle sabbie comunemente usate per diverse applicazioni. Si è ritenuto necessario indagare la compatibilità dal punto di vista chimico, granulometrico e morfologico. Per indagare la mobilità si è scelto di applicare i test di cessione definiti sia a livello internazionale che italiano (UNI) e quindi si sono sviluppate le tecnologie necessarie alla effettuazione di test di cessione in modo efficace, automatizzando la gestione del test a pHstat UNI CEN 14997. Questo si è reso necessario a causa della difficoltà di gestire il test manualmente, per via delle tempistiche difficilmente attuabili da parte di un operatore. Le condizioni redox influenzano la mobilità degli inquinanti, in particolare l’invecchiamento all’aria di sedimenti anossici provoca variazioni sensibili nello stato d’ossidazione di alcune componenti, incrementandone la mobilità, si tratta quindi di un aspetto da considerare quando si individuano le adeguate condizioni di stoccaggio-smaltimento, si è eseguita a questo scopo una campagna sperimentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.