990 resultados para Lunghezza della cerniera plastica, pushover, rotazione ultima, colonne in c.a.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fossil associations from the middle and upper Eocene (Bartonian and Priabonian) sedimentary succession of the Pamplona Basin are described. This succession was accumulated in the western part of the South Pyrenean peripheral foreland basin and extends from deep-marine turbiditic (Ezkaba Sandstone Formation) to deltaic (Pamplona Marl, Ardanatz Sandstone and Ilundain Marl formations) and marginal marine deposits (Gendulain Formation). The micropalaeontological content is high. It is dominated by foraminifera, and common ostracods and other microfossils are also present. The fossil ichnoasssemblages include at least 23 ichnogenera and 28 ichnospecies indicative of Nereites, Cruziana, Glossifungites and ?Scoyenia-Mermia ichnofacies. Body macrofossils of 78 taxa corresponding to macroforaminifera, sponges, corals, bryozoans, brachiopods, annelids, molluscs, arthropods, echinoderms and vertebrates have been identified. Both the number of ichnotaxa and of species (e. g. bryozoans, molluscs and condrichthyans) may be considerably higher. Body fossil assemblages are comparable to those from the Eocene of the Nord Pyrenean area (Basque Coast), and also to those from the Eocene of the west-central and eastern part of South Pyrenean area (Aragon and Catalonia). At the European scale, the molluscs assemblages seem endemic from the Pyrenean area, although several Tethyan (Italy and Alps) and Northern elements (Paris basin and Normandy) have been recorded. Palaeontological data of studied sedimentary units fit well with the shallowing process that throughout the middle and late Eocene occurs in the area, according to the sedimentological and stratigraphical data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El concurso de transformación mágica, esquema narrativo difundido en la tradición popular, se presenta en dos variantes principales: los hechiceros que compiten pueden metamorfosearse en varios seres o crear esos seres por medios mágicos. En cualquier caso el concursante ganador da a luz criaturas más fuertes que superan las de su oponente. La segunda variante fue preferida en el antiguo Cercano Oriente (Sumeria, Egipto, Israel). La primera se puede encontrar en algunos mitos griegos sobre cambiadores de forma (por ejemplo, Zeus y Némesis). El mismo esquema narrativo puede haber influido en un episodio de la Novela de Alejandro (1.36-38), en el que Darío envía regalos simbólicos a Alejandro y los dos monarcas enemigos ofrecen contrastantes explicaciones de ellos. Esta historia griega racionaliza el concurso de cuento de hadas, transfiriendo las fantásticas hazañas de creaciones milagrosas a un plano secundario pero realista de metáfora lingüística.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract La metafora è stata tradizionalmente considerata come uno strumento linguistico dal valore esclusivamente estetico, ma agli inizi degli anni Ottanta questa teoria è stata messa in discussione: la metafora è per noi uno strumento conoscitivo fondamentale: ci consente di organizzare le nostre conoscenze e di crearne di nuove, aiutandoci a categorizzare elementi e concetti astratti o troppo complessi come elementi di cui possiamo fare esperienza quotidianamente e che sono sufficientemente strutturati nel nostro sistema concettuale. Le metafore di questo tipo vengono definite metafore concettuali. La messa in discussione della teoria tradizionale della metafora comporta inevitabilmente anche la messa in discussione del concetto di similarità, visto non più come una causa della metafora, ma come la sua conseguenza, e del meccanismo che ne sta alla base. La teoria cognitiva della metafora, in ricerche successive, è stata confermata attraverso le teoria neurale della metafora: l'insorgere di una metafora comporta la creazione di un legame tra aree diverse del cervello che rappresenta fisiologicamente la metafora.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo della tesi è la realizzazione di un dispositivo in grado di riprodurre il sistema del pendolo inverso e di trovare soluzioni vicine alla posizione di equilibrio stabile. Verranno ricavate le equazioni del moto che descrivono il sistema attraverso la meccanica Lagrangiana. Una volta integrate numericamente le equazioni, si procederà con la ricerca di una funzione di controllo per mantenere in equilibrio il sistema: l'efficacia della soluzione verrà valutata graficamente, senza approfondire l'approccio proveniente dalla teoria del controllo che ne è alla base. Infine il sistema verrà realizzato praticamente ed utilizzeremo le stesse funzioni studiate in precedenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato svolto sull’ impianto di produzione di polioli presso lo stabilimento Cargill di Castelmassa (RO) con lo scopo di ottimizzare la gestione dello ione Ni2+, derivante dal nichel metallico utilizzato come catalizzatore (nichel Raney) nella reazione di idrogenazione del glucosio condotta a 42 bar. Il nichel, infatti, a seguito di fluttuazioni di pH che avvengono durante il corso della reazione aumenta la sua solubilità passando in fase liquida sotto forma di ione bivalente. Nel successivo step di raffinazione e demineralizzazione del prodotto mediante una serie di resine a scambio ionico, il Ni2+ è trattenuto assieme ad altri ioni e separato dal prodotto stesso. Infine quando si va a rigenerare la resina, a seguito della sua saturazione, si producono dei reflui contenenti nichel, che, seppur presente in quantità modeste, non potranno essere inviati al depuratore comunale in quanto il metallo avvelenerebbe i microorganismi deputati al trattamento delle acque reflue, quindi dovranno essere smaltiti come rifiuti speciali. L’azienda è già dotata di un impianto di nichel recovery che utilizza una batteria di resine chelanti, in grado di catturare selettivamente metalli pesanti, in modo tale da avere un refluo con la concentrazione di Ni2+ più alta possibile per ridurre al minimo i costi, non esigui, di smaltimento. L’obbiettivo del mio lavoro di tesi è quello di trovare soluzioni alternative per la concentrazione del nichel e verificare mediante semplici bilanci economici se queste soluzioni proposte siano sostenibili dal punto di vista industriale, ed eventualmente possano essere concorrenti alla soluzione impiantistica già adottata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con l’ultimo rapporto dell’ IPCC e gli obiettivi che le nazioni del mondo si sono poste in seguito alla conferenza sul clima tenutasi a Parigi nel dicembre del 2015, sono sempre maggiori le soluzioni che si cercano al fine di rendere la società più sostenibile e resiliente per sopportare al meglio le conseguenze dei cambiamenti climatici. Le pareti verdi fanno parte di quelle infrastrutture che si pongono in quest’ottica di sostenibilità e riconciliazione con la natura. In questo elaborato si è cercato di classificare ed esaminare alcune delle tipologie più utilizzate di sistemi di inverdimento verticale, andando ad analizzare la letteratura presente sull’argomento. In particolare ci si è soffermati sugli aspetti di sostenibilità ambientale di tali infrastrutture, con riferimento alla valutazione del loro ciclo di vita e ai benefici da loro apportati, soprattutto quelli riguardanti microclima, diminuzione dell’isola di calore, aumento della biodiversità e miglioramento della qualità dell’aria. Si sono inoltre analizzati aspetti di natura economica e progettuale, mostrando l’utilità di uno strumento quale il “process tree” in quest’ultimo ambito. In seguito, si è preso in considerazione il lavoro del gruppo di ricerca “Terracini in Transizione”, un living-lab della sostenibilità che si svolge nella sede in via Terracini, 28 della facoltà di Ingegneria e Architettura dell’Università di Bologna. Nello specifico si sono osservati alcuni dei progetti e delle analisi svolte dai vari gruppi “pareti verdi” che si sono susseguiti all’interno del corso di “Valorizzazione delle risorse primarie e secondarie” della professoressa Bonoli, tra cui l’analisi di fattibilità di una parete verde da installare nel plesso in via Terracini, l’analisi di substrati di crescita alternativi per pareti vegetate e lo studio, in collaborazione con la facoltà di Agraria, di un substrato innovativo composto da un mix di pannolini usati e fibra di cocco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il sistema muscolare scheletrico è l'insieme di organi adibiti al movimento, il quale è permesso dalla contrazione muscolare. L’elettromiografia è un esame di tipo funzionale che analizza il funzionamento di uno o più muscoli attraverso i potenziali elettrici che si sviluppano in esso durante la contrazione. Patologie del sistema muscolare o del sistema nervoso possono compromettere il comportamento fisiologico che il corpo richiede e l’elettromiografia può aiutare nella diagnosi. Oltre al campo medico, l’elettromiografia può dimostrarsi utile in ambito sportivo, valutando come il sistema muscolare evolve nella sua risposta quando sottoposto a cicli di lavoro o di recupero. Obiettivo dell’elaborato è descrivere e comprendere il principio di funzionamento dell’indagine elettromiografica, analizzando lo strumento elettromiografo e il segnale elettromiografico, e come può essere applicata in ambito sportivo. È fornita una breve descrizione del sistema muscolare, dal punto di vista strutturale e meccanico, e del sistema nervoso, dal punto di vista elettrico. Tali principi permettono di comprendere come la forza muscolare viene prodotta e come il segnale mioelettrico si propaga. Dell’elettromiografo sono presentati gli elementi utilizzati per la registrazione e l’elaborazione del segnale. Per quanto riguarda il segnale, invece, vengono esposti i metodi di acquisizione, interpretazione ed elaborazione digitale dello stesso. In un’ultima parte si confrontano alcune specifiche tecniche di elettromiografi commerciali in funzione della specifica applicazione. È infine affrontato l’utilizzo dell’elettromiografia in ambito sportivo, esponendo alcuni articoli riguardanti il nuoto e il rugby. Nel caso del nuoto è esaminato come alcuni muscoli reagiscono lavorando ad intensità diverse e tra atleti di livello agonistico differente. Invece, nel caso del rugby viene fatto un confronto su come alcuni muscoli si attivano in un soggetto sano e in un soggetto patologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente rapporto tecnico viene illustrato uno studio del dissesto geomorfologico in due aree selezionate dell’Isola di Procida, rispettivamente ubicate nella zona storica di Procida (borgo medievale di Terra Murata lungo la Via Salita Castello-altezza Via S. Domenico) e nell’area costiera che raccorda Punta Pizzaco con Punta Solchiaro (comprensorio Centane-Panoramica). In generale le finalità del rapporto tecnico sono quelle di fornire un inquadramento di queste due zone da un punto di vista geologico, che si differenziano negli aspetti particolari. Infatti, nella zona di Terra Murata, sia nella zona alta del borgo medievale (piazzale oltre le mura) che lungo il costone tufaceo antistante la Marina Corricella (salita Castello all’altezza di Via S. Domenico) sono documentate copiose perdite d’acqua attraverso i terreni vulcanici di natura tufacea e pozzolanica che affiorano nell’area. Tali perdite d’acqua attraverso i terreni interessano anche numerose abitazioni, creando disagi che rendono necessario l’ulteriore accertamento tecnico al fine di individuare, anche tentativamente, le cause di tali dissesti e di proporre soluzioni tecnicamente soddisfacenti a tali problematiche attraverso uno studio approfondito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La geolocalizzazione è l’insieme di metodi e tecniche che permette di mettere in relazione una certa informazione con un punto specifico della superficie terrestre. Il punto è generalmente indicato in maniera assoluta tramite coordinate latitudinali e longitudinali, oppure in maniera relativa ad altri punti noti. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni in tempo reale relative alla posizione, direzione e velocità del soggetto analizzato, e la conseguente analisi di percorso e comportamento. Tutto questo rende possibile la realizzazione di un sistema di localizzazione efficiente. La geolocalizzazione è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In particolare è di interesse di ricerca e in ambito di commercio trovare un sistema di localizzazione adeguato non solo per l’esterno ma anche per situazioni indoor. In questa tesi verranno analizzati i vari metodi di posizionamento fino ad oggi studiati, sia indoor che outdoor per arrivare a proporre un sistema di localizzazione indoor basato su geomagnetismo dell’ambiente. Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Vedremo quindi nello specifico quali sono gli ultimi studi e tecnologie per un sistema di localizzazione indoor, concentrandosi sull’analisi dei vantaggi offerti da nuovi dispositivi con gli smartphones. Infine verrà descritto nel dettaglio il lavoro effettuato per la realizzazione di un prototipo di sistema di localizzazione indoor basato su geomagnetismo in sede aziendale GetConnected, dove si è svolta l’attività di tesi, e presso un grosso centro commerciale come caso d’uso pratico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa Tesi approfondisce lo standard Passivhaus, un metodo sviluppato originariamente in Germania nella seconda metà degli anni ’80 ed ora diffuso in tutta Europa, con l’obiettivo di favorire la realizzazione di edifici in grado di fornire ottimi livelli di comfort con consumi energetici pari quasi a zero. Questo standard abitativo mi ha appassionato a tal punto che ho deciso di farne oggetto della mia tesi di laurea. Da diversi anni stiamo assistendo ad una serie di mutamenti climatici che stanno modificando la vita sul nostro pianeta e portano a considerare tutta una serie di cambiamento sul nostro modo di vivere. La casa passiva, a mio parere, è un concetto valido e utile a contenere questa situazione. In altre zone d’Europa, con climi invernali rigidi ma condizioni estive meno gravose delle nostre, è uno standard piuttosto diffuso e qui cercherò di formulare un’analisi quanto più vicina alla realtà riguardo all’adattabilità della Passivhaus al nostro clima. Lo scopo è quello di capire come si comporta questo tipo di edifici in ambienti climatici diversi da quelli per cui lo standard è stato progettato. Per verificarne l’efficacia, verrà studiato nel dettaglio il primo edificio residenziale multipiano recentemente costruito a Cesena e certificato Passivhaus. Successivamente, sarà simulata la realizzazione dello stesso edificio in dieci diverse località italiane, con differenti condizioni climatiche, e ne saranno verificate le prestazioni energetiche tramite un software di modellazione in regime dinamico. Se risulterà necessario a seguito delle verifiche, saranno progettate le modifiche alle soluzioni costruttive che permettano di raggiungere i livelli previsti dallo standard Passivhaus in tutte le località. I risultati della simulazione saranno infine confrontati e commentati nella parte conclusiva della Tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.