1000 resultados para indirizzo :: 955 :: Curriculum A: Generale e applicativo
Resumo:
In questa tesi viene presentata un'analisi numerica dell'evoluzione dinamica del modello di Heisenberg XXZ, la cui simulazione è stata effettuata utilizzando l'algoritmo che va sotto il nome di DMRG. La transizione di fase presa in esame è quella dalla fase paramagnetica alla ferromagnetica: essa viene simulata in una catena di 12 siti per vari tempi di quench. In questo modo si sono potuti esplorare diversi regimi di transizione, da quello istantaneo al quasi-adiabatico. Come osservabili sono stati scelti l'entropia di entanglement, la magnetizzazione di mezza catena e lo spettro dell'entanglement, particolarmente adatti per caratterizzare la fisica non all'equilibrio di questo tipo di sistemi. Lo scopo dell'analisi è tentare una descrizione della dinamica fuori dall'equilibrio del modello per mezzo del meccanismo di Kibble-Zurek, che mette in relazione la sviluppo di una fase ordinata nel sistema che effettua la transizione quantistica alla densità di difetti topologici, la cui legge di scala è predicibile e legata agli esponenti critici universali caratterizzanti la transizione.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.
Resumo:
Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.
Resumo:
Conventional inorganic materials for x-ray radiation sensors suffer from several drawbacks, including their inability to cover large curved areas, me- chanical sti ffness, lack of tissue-equivalence and toxicity. Semiconducting organic polymers represent an alternative and have been employed as di- rect photoconversion material in organic diodes. In contrast to inorganic detector materials, polymers allow low-cost and large area fabrication by sol- vent based methods. In addition their processing is compliant with fexible low-temperature substrates. Flexible and large-area detectors are needed for dosimetry in medical radiotherapy and security applications. The objective of my thesis is to achieve optimized organic polymer diodes for fexible, di- rect x-ray detectors. To this end polymer diodes based on two different semi- conducting polymers, polyvinylcarbazole (PVK) and poly(9,9-dioctyluorene) (PFO) have been fabricated. The diodes show state-of-the-art rectifying be- haviour and hole transport mobilities comparable to reference materials. In order to improve the X-ray stopping power, high-Z nanoparticle Bi2O3 or WO3 where added to realize a polymer-nanoparticle composite with opti- mized properities. X-ray detector characterization resulted in sensitivties of up to 14 uC/Gy/cm2 for PVK when diodes were operated in reverse. Addition of nanoparticles could further improve the performance and a maximum sensitivy of 19 uC/Gy/cm2 was obtained for the PFO diodes. Compared to the pure PFO diode this corresponds to a five-fold increase and thus highlights the potentiality of nanoparticles for polymer detector design. In- terestingly the pure polymer diodes showed an order of magnitude increase in sensitivity when operated in forward regime. The increase was attributed to a different detection mechanism based on the modulation of the diodes conductivity.
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.
Resumo:
Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.
Resumo:
The present thesis work proposes a new physical equivalent circuit model for a recently proposed semiconductor transistor, a 2-drain MSET (Multiple State Electrostatically Formed Nanowire Transistor). It presents a new software-based experimental setup that has been developed for carrying out numerical simulations on the device and on equivalent circuits. As of 2015, we have already approached the scaling limits of the ubiquitous CMOS technology that has been in the forefront of mainstream technological advancement, so many researchers are exploring different ideas in the realm of electrical devices for logical applications, among them MSET transistors. The idea that underlies MSETs is that a single multiple-terminal device could replace many traditional transistors. In particular a 2-drain MSET is akin to a silicon multiplexer, consisting in a Junction FET with independent gates, but with a split drain, so that a voltage-controlled conductive path can connect either of the drains to the source. The first chapter of this work presents the theory of classical JFETs and its common equivalent circuit models. The physical model and its derivation are presented, the current state of equivalent circuits for the JFET is discussed. A physical model of a JFET with two independent gates has been developed, deriving it from previous results, and is presented at the end of the chapter. A review of the characteristics of MSET device is shown in chapter 2. In this chapter, the proposed physical model and its formulation are presented. A listing for the SPICE model was attached as an appendix at the end of this document. Chapter 3 concerns the results of the numerical simulations on the device. At first the research for a suitable geometry is discussed and then comparisons between results from finite-elements simulations and equivalent circuit runs are made. Where points of challenging divergence were found between the two numerical results, the relevant physical processes are discussed. In the fourth chapter the experimental setup is discussed. The GUI-based environments that allow to explore the four-dimensional solution space and to analyze the physical variables inside the device are described. It is shown how this software project has been structured to overcome technical challenges in structuring multiple simulations in sequence, and to provide for a flexible platform for future research in the field.
Resumo:
Le attività riguardanti la mia tesi sono state svolte presso Hera S.p.A.. Hera ha iniziato nel 2013 un progetto sperimentale di implementazione di tecnologie cosiddette smart grid su una porzione di rete gestita. Il progetto di Hera si focalizza su diversi aspetti riguardanti sia l’automazione della rete MT, ai fini della riduzione del tempo necessario per individuare il guasto in linea, sia su aspetti riguardanti la regolazione della tensione. In particolare la mia attività di tesi si è incentrata sugli aspetti riguardanti la regolazione della tensione, partendo da una panoramica di quelli che sono ad oggi i metodi più diffusi di regolazione della tensione agendo essenzialmente sul regolatore sotto carico del trasformatore AT/MT presente in cabina primaria e descrivendo quello che è invece il metodo analizzato nel dimostrativo di Hera. In particolare mi sono soffermato sulla regolazione di tensione realizzata con il supporto dei generatori distribuiti connessi alla rete MT di Hera i quali possono, nei limiti delle loro capability, intervenire all’occorrenza assorbendo od erogando potenza reattiva. Il supporto dei generatori distribuiti può essere richiesto qualora la regolazione realizzata con la variazione del commutatore sottocarico del trasformatore in cabina primaria non sia sufficiente per ottenere il risultato desiderato. Appare sin d’ora evidente che questo tipo di regolazione presuppone l’esistenza di una infrastruttura di comunicazione tra il centro operativo del distributore e il campo, inteso come i nodi su cui sono connessi i generatori. Nell’ambito del dimostrativo Hera ha quindi progettato e sta ora realizzando l’infrastruttura di comunicazione che permette la comunicazione del centro di telecontrollo con i generatori. Questa infrastruttura ha caratteristiche particolarmente performanti non tanto per conseguire gli scopi della regolazione, che comunque non necessitano di tempi di latenza eccessivamente stringenti, quanto piuttosto per implementare un’automazione di rete veloce che permette di evitare la disalimentazione degli utenti a monte di guasto attraverso una selezione rapida e intelligente del ramo guasto.
Resumo:
Conversione delle interfaccie grafiche legay di un gestionale ERP verso più moderne interfaccie grafiche Windows Form. Si descrive inoltre come realizzare un interfaccia web alternativa che si basa su Ajax.
Resumo:
L’obiettivo di questa tesi è la trasposizione del gioco da tavolo “Mahjong” su un’applicazione mobile. Essa è sviluppata in Android, ma l’idea è quella di estenderla anche alle altre piattaforme. Col passare del tempo il Mahjong si è diffuso in molti paesi e per questo ne sono nate molte varianti. In questo caso si adotta il regolamento ravennate 200-400, opportunamente modificato per adattarlo all’applicazione. Il nome dell’applicativo nasce dal fatto che esso dovrà gestire un numero molto elevato di lingue e che nessuno ha ancora sviluppato un gioco multiplayer sul Mahjong, per cui sarà il primo a livello mondiale. Nell’applicazione un utente dovrà creare il tavolo di gioco e solo allora gli altri potranno visualizzarlo. Dopo che tutti si saranno seduti, chiunque potrà chiedere di iniziare una partita, che comincerà non appena tutti avranno accettato la richiesta. È stato progettato un database, in modo da salvare lo stato attuale di tutti i tavoli. Le informazioni sullo stato di ogni partita, invece, sono salvate in un file diverso per ciascuna. L’architettura utilizzata per lo sviluppo dell’applicativo è del tipo client-server. Per la parte server dell’applicazione si è scelto di usare il linguaggio java, utilizzando le socket e instaurando connessioni SSL. Il server utilizza inoltre connessioni non persistenti. Tutte le richieste inviate e ricevute dal server sono create in un formato adatto all'interscambio di dati fra applicazioni client-server, chiamato JSON. Nel server si è creato, inoltre, un servizio di “caching” delle partite, in modo da incrementare le prestazioni e la velocità di elaborazione delle richieste. Per connettere in modo corretto il server al database si utilizza JDBC.
Resumo:
In questa tesi sono le descritte le fasi progettuali e costruttive del Beam Halo Monitor (BHM), un rivelatore installato sull'esperimento CMS, durante il primo lungo periodo di shutdown di LHC, che ha avuto luogo tra il 2013 ed il 2015. BHM è un rivelatore ad emissione di luce Cherenkov ed ha lo scopo di monitorare le particelle di alone prodotte dai fasci di LHC, che arrivano fino alla caverna sperimentale di CMS, ad ogni bunch crossing (25 ns). E' composto da 40 moduli, installati alle due estremità di CMS, attorno alla linea di fascio, ad una distanza di 1.8 m da questa. Ciascun modulo è costituito da un cristallo di quarzo, utilizzato come radiatore ed un fotomoltiplicatore. Sono descritte in maniera particolare le prove eseguite sui moduli che lo compongono: la caratterizzazione dei fotomoltiplicatori ed i test di direzionalità della risposta. Queste costituiscono la parte di lavoro che ho svolto personalmente. Inoltre sono descritte le fasi di installazione del rivelatore nella caverna sperimentale, a cui ho preso parte ed alcuni test preliminari per la verifica del funzionamento.
Resumo:
In questa tesi viene presentato un nuovo metaeuristico per la risoluzione del Traveling Salesman Problem (TSP) simmetrico. Tale metodo, detto algoritmo bionomico, è una variante dell'algoritmo genetico che usa un metodo innovativo di generazione del parents set. Nella tesi vengono proposti diversi metodi di crossover specifici per il TSP ma che possono essere facilmente estesi per altri problemi di ottimizzazione combinatoria. Tali metodi sono stati sperimentati su un insieme di problemi test, i risultati computazionali mostrano l'efficienza dei metodi proposti. In particolare uno dei metodi domina gli altri sia per la miglior qualità delle soluzioni prodotte che per il minor tempo di calcolo impiegato.
Resumo:
Le superfici di suddivisione sono un ottimo ed importante strumento utilizzato principalmente nell’ambito dell’animazione 3D poichè consentono di definire superfici di forma arbitraria. Questa tecnologia estende il concetto di B-spline e permette di avere un’estrema libertà dei vincoli topologici. Per definire superfici di forma arbitraria esistono anche le Non-Uniform Rational B-Splines (NURBS) ma non lasciano abbastanza libertà per la costruzione di forme libere. Infatti, a differenza delle superfici di suddivisione, hanno bisogno di unire vari pezzi della superficie (trimming). La tecnologia NURBS quindi viene utilizzata prevalentemente negli ambienti CAD mentre nell’ambito della Computer Graphics si è diffuso ormai da più di 30 anni, l’utilizzo delle superfici di suddivisione. Lo scopo di questa tesi è quello di riassumere, quindi, i concetti riguardo questa tecnologia, di analizzare alcuni degli schemi di suddivisione più utilizzati e parlare brevemente di come questi schemi ed algoritmi vengono utilizzati nella realt`a per l’animazione 3D.
Resumo:
Il presente lavoro di tesi per la Laurea Specialistica in Geologia e Territorio è stato concepito come ricostruzione, approfondimento e verifica dell’insieme di interventi finalizzati alla stabilizzazione di versante che hanno coinvolto il tratto della ferrovia Porretta-Pistoia ubicato tra la progressiva 50 + 730 e la progressiva 50 + 650. In quest’area, alle prime ore del giorno 5 Gennaio 2014, è avvenuto l’innesco di un evento franoso che ha coinvolto il rilevato su cui transita la via ferrata: la causa della mobilizzazione è stata ricondotta fin da subito all’intenso evento piovoso occorso nei giorni precedenti la mobilizzazione. La zona coinvolta nel dissesto è situata nei pressi della frazione di Corbezzi, in località Casciano, nel territorio nord-orientale della provincia di Pistoia: il bacino idrografico è quello del torrente Brana, tributario del Fiume Ombrone. L’urgenza e l’importanza della realizzazione di questi interventi non era da attribuirsi alla pericolosità nei confronti delle vite dei residenti, ma piuttosto al fatto che l’opera ferroviaria è da considerarsi come un bene di importanza strategica non solo per la provincia di Pistoia, ma anche per le regioni Toscana ed Emilia-Romagna, in quanto mezzo efficace di collegamento e spostamento di pendolari e merce tra le due. L’elaborato che viene proposto è il risultato delle analisi dei dati acquisiti in fase di progettazione, dello studio effettuato direttamente in campo e di una fase finale di verifica sulla stabilità del versante a seguito della realizzazione delle opere e sulla correttezza del dimensionamento previsto per le stesse. Infine, ma non di minor importanza, viene proposto un approfondimento della coerenza dell’intervento nei confronti del contesto paesaggistico.