991 resultados para indirizzo :: 789 :: Curriculum C: Fisica della materia


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi sono le descritte le fasi progettuali e costruttive del Beam Halo Monitor (BHM), un rivelatore installato sull'esperimento CMS, durante il primo lungo periodo di shutdown di LHC, che ha avuto luogo tra il 2013 ed il 2015. BHM è un rivelatore ad emissione di luce Cherenkov ed ha lo scopo di monitorare le particelle di alone prodotte dai fasci di LHC, che arrivano fino alla caverna sperimentale di CMS, ad ogni bunch crossing (25 ns). E' composto da 40 moduli, installati alle due estremità di CMS, attorno alla linea di fascio, ad una distanza di 1.8 m da questa. Ciascun modulo è costituito da un cristallo di quarzo, utilizzato come radiatore ed un fotomoltiplicatore. Sono descritte in maniera particolare le prove eseguite sui moduli che lo compongono: la caratterizzazione dei fotomoltiplicatori ed i test di direzionalità della risposta. Queste costituiscono la parte di lavoro che ho svolto personalmente. Inoltre sono descritte le fasi di installazione del rivelatore nella caverna sperimentale, a cui ho preso parte ed alcuni test preliminari per la verifica del funzionamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi ha permesso di osservare e analizzare le strategie risolutive che gli studenti italiani utilizzano quando si cimentano nello svolgimento delle prove di matematica nazionali INVALSI (Sistema Nazionale per la Valutazione del Sistema dell'Istruzione). L'osservazione è stata svolta durante le ore di tirocinio curriculare effettuate nell'anno accademico 2014/2015 presso il liceo scientifico e delle scienze umane "Albert Bruce Sabin" di Bologna. L'interesse per l'esperimento è nato dalla constatazione dei risultati deludenti degli studenti italiani nelle prove di matematica rispetto all'andamento internazionale. Pertanto,in collaborazione con il prof Giorgio Bolondi, relatore dell'elaborato, e della prof.ssa Valeria Vesi insegnante di matematica delle classi prime seguite durante il tirocinio, è stato realizzato un test di domande estrapolate dalle prove INVALSI svolte negli anni precedenti, sottoposto a un campione di 12 studenti (14-15 anni) frequentanti le classi 1M, 1O e 1R.Il lavoro d'indagine è stato realizzato in due diverse fasi: soluzione del test e intervista-colloquio registrata. Le registrazioni, apparse fin da subito molto interessanti, rivelano importanti informazioni che permettono di evidenziare le diverse difficoltà che i nostri studenti incontrano nel risolvere le prove di matematica. Per meglio interpretare i loro comportamenti durante la messa in atto dei processi risolutivi è stato svolto uno studio e una ricerca riguardanti gli studi e le teorie che interessano il problem-solving, oltre a fornire una panoramica sulle ricerche nel campo della valutazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dalle rilevazioni PISA condotte dall'OCSE nel 2003, gli studenti finlandesi sono risultati i migliori in Europa in capacità di lettura e competenze matematiche. Vari esperti in didattica si sono quindi interrogati cercando quali aspetti rendessero eccellente il sistema finlandese. Altri, invece, hanno sostenuto che le prove PISA rilevassero solo alcune abilità senza tener conto delle conoscenze apprese a scuola, quindi il successo finlandese potrebbe essere dovuto al caso. Infatti nei test TIMSS, gli alunni finlandesi hanno avuto risultati mediocri. La tesi cerca di spiegare i “segreti” del sistema scolastico finlandese e di confrontarlo con la scuola italiana. Sono state osservate in loco le lezioni di matematica in alcune classi campione di una scuola finlandese all’ottavo e nono anno di scolarità. Si analizza la didattica sotto diversi punti di vista e si confrontano i libri di testo finlandesi e italiani su uno specifico argomento ritenuto di cruciale importanza: i polinomi. Si evidenzia che la differenza nei risultati delle rilevazioni non dipende tanto dalle differenze dei sistemi scolastici quanto all'impostazione culturale dei giovani finlandesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La radioterapia è una tecnica molto impiegata per la cura del cancro. Attualmente la somministrazione avviene principalmente attraverso la intensity modulated radiotherapy (IMRT, sovrapposizione di campi ad intensità modulata), un cui sviluppo recente è la volumetric modulated arc therapy (VMAT, irradiazione continua lungo un arco ininterrotto). La generazione di piani richiede esperienza ed abilità: un dosimetrista seleziona cost functions ed obiettivi ed un TPS ottimizza la disposizione dei segmenti ad intensità modulata. Se il medico giudica il risultato non soddisfacente, il processo riparte da capo (trial-and-error). Una alternativa è la generazione automatica di piani. Erasmus-iCycle, software prodotto presso ErasmusMC (Rotterdam, The Netherlands), è un algoritmo di ottimizzazione multicriteriale di piani radioterapici per ottimizzazione di intensità basato su una wish list. L'output consiste di piani Pareto-ottimali ad intensità modulata. La generazione automatica garantisce maggiore coerenza e qualità più elevata con tempi di lavoro ridotti. Nello studio, una procedura di generazione automatica di piani con modalità VMAT è stata sviluppata e valutata per carcinoma polmonare. Una wish list è stata generata attraverso una procedura iterativa su un gruppo ristretto di pazienti con la collaborazione di fisici medici ed oncologi e poi validata su un gruppo più ampio di pazienti. Nella grande maggioranza dei casi, i piani automatici sono stati giudicati dagli oncologi migliori rispetto ai rispettivi piani IMRT clinici generati manualmente. Solo in pochi casi una rapida calibrazione manuale specifica per il paziente si è resa necessaria per soddisfare tutti i requisiti clinici. Per un sottogruppo di pazienti si è mostrato che la qualità dei piani VMAT automatici era equivalente o superiore rispetto ai piani VMAT generati manualmente da un dosimetrista esperto. Complessivamente, si è dimostrata la possibilità di generare piani radioterapici VMAT ad alta qualità automaticamente, con interazione umana minima. L'introduzione clinica della procedura automatica presso ErasmusMC è iniziata (ottobre 2015).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si è studiato l’insorgere di eventi critici in un semplice modello neurale del tipo Integrate and Fire, basato su processi dinamici stocastici markoviani definiti su una rete. Il segnale neurale elettrico è stato modellato da un flusso di particelle. Si è concentrata l’attenzione sulla fase transiente del sistema, cercando di identificare fenomeni simili alla sincronizzazione neurale, la quale può essere considerata un evento critico. Sono state studiate reti particolarmente semplici, trovando che il modello proposto ha la capacità di produrre effetti "a cascata" nell’attività neurale, dovuti a Self Organized Criticality (auto organizzazione del sistema in stati instabili); questi effetti non vengono invece osservati in Random Walks sulle stesse reti. Si è visto che un piccolo stimolo random è capace di generare nell’attività della rete delle fluttuazioni notevoli, in particolar modo se il sistema si trova in una fase al limite dell’equilibrio. I picchi di attività così rilevati sono stati interpretati come valanghe di segnale neurale, fenomeno riconducibile alla sincronizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main purpose of ultrarelativistic heavy-ion collisions is the investigation of the QGP. The ALICE experiment situated at the CERN has been specifically designed to study heavy-ion collisions for centre-of-mass energies up to 5.5 per nucleon pair. Extended particle identification capability is one of the main characteristics of the ALICE experiment. In the intermediate momentum region (up to 2.5 GeV/c for pi/K and 4 GeV/c for K/p), charged particles are identified in the ALICE experiment by the Time of Flight (TOF) detector. The ALICE-TOF system is a large-area detector based on the use of Multi-gap Resistive Plate Chamber (MRPC) built with high efficiency, fast response and intrinsic time resolution better than 40 ps. This thesis work, developed with the ALICE-TOF Bologna group, is part of the efforts carried out to adapt the read-out of the detector to the new requirements after the LHC Long Shutdown 2. Tests on the feasibility of a new read-out scheme for the TOF detector have been performed. In fact, the achievement of a continuous read-out also for the TOF detector would not be affordable if one considers the replacement of the TRM cards both for hardware and budget reasons. Actually, the read-out of the TOF is limited at 250 kHz i.e. it would be able to collect up to just a fourth of the maximum collision rate potentially achievable for pp interactions. In this Master’s degree thesis work, I discuss a different read-out system for the ALICE-TOF detector that allows to register all the hits at the interaction rate of 1 MHz foreseen for pp interactions after the 2020, by using the electronics currently available. Such solution would allow the ALICE-TOF detector to collect all the hits generated by pp collisions at 1 MHz interaction rate, which corresponds to an amount four times larger than that initially expected at such frequencies with the triggered read-out system operated at 250 kHz for LHC Run 3. The obtained results confirm that the proposed read-out scheme is a viable option for the ALICE TOF detector. The results also highlighted that it will be advantageous if the ALICE-TOF group also implement an online monitoring system of noisy channels to allow their deactivation in real time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è presentata la misura con il rivelatore ALICE del flusso triangolare, v3, di pioni, kaoni e protoni prodotti in collisioni PbPb a LHC. Il confronto di v3 con le previsioni di modelli idrodinamici permette di vincolare maggiormente le assunzioni sulle condizioni iniziali del sistema presenti nei diversi modelli ed estrarre una stima maggiormente precisa delle proprietà del mezzo come la viscosità. La misura è effettuata nella regione di pseudorapidità centrale sui dati raccolti da ALICE nel 2010 e 2011 e utilizza una tecnica di identificazione basata sia sulla misura della perdita di energia specifica, con la camera a proiezione temporale (TPC), sia la misura della velocità con il sistema a tempo di volo (TOF). La combinazione di entrambe le tecniche permette di separare le diverse specie in un intervallo esteso di impulsi con elevata efficienza e purezza. Per la misura del piano di reazione è stato utilizzato il rivelatore VZERO che misura la molteplicità delle particelle cariche in una regione di pseudorapidità disgiunta da quella in cui è misurato v3. La misura ottenuta è confrontata con le previsioni di modelli idrodinamici attualmente più utilizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La realizzazione di cinque sezioni stratigrafiche nel territorio padano, orientate SSW-NNE e con profondità di circa 200 m, ha consentito lo studio della successione sedimentaria tardo-quaternaria della Pianura Padana centrale e dei suoi acquiferi, in particolare quelli più superficiali. La ricostruzione, ottenuta utilizzando le stratigrafie di pozzi per acqua fornite dall’archivio del Servizio Geologico, Sismico e dei Suoli di Regione Emilia-romagna, ha permesso di evidenziare una ciclicità deposizionale del 4° ordine, controllata da fattori glacio-eustatici. Grazie al riconoscimento di cicli trasgressivo-regressivi sono stati individuati cinque subsintemi corrispondenti ad altrettanti complessi acquiferi. La ricostruzione di pattern ciclici all’interno del Bacino Padano ha permesso la ricostruzione geometrica dei corpi sedimentari di channel-belt del Fiume Po, spessi corpi sabbiosi confinati da materiale impermeabile in cui sono contenute le falde acquifere. Alle informazioni stratigrafiche e litologiche si è unito lo studio delle caratteristiche idrochimiche ed isotopiche degli acquiferi, in modo tale da ottenere una chiave di lettura integrata dei depositi padani. Basandosi sulle diverse caratteristiche isotopiche delle acque è possibile risalire alla provenienza delle acque negli acquiferi. In questo modo si ottengono informazioni circa le modalità di ricarica dell'acquifero e la sorgente della ricarica. Un'applicazione secondaria di questo metodo è la verifica della vulnerabilità degli acquiferi padani. Lo studio delle facies idrochimiche è stato sovrapposto a quello dei valori isotopici delle acque, con l'obiettivo di definire una correlazione tra i due fattori chimici all’interno degli acquiferi. L'obiettivo di questa correlazione è quello di identificare la provenienza di un'acqua di ricarica senza la necessità di dati di natura isotopica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La realtà aumentata, unitamente a quella mista, stanno rapidamente prendendo pieno all'interno di molti aspetti della vita umana. Scopo di questo lavoro è di analizzare tecnologie e tecniche esistenti al fine di applicarle ad un caso reale, la rilevazione e la sovrapposizione di un oggetto digitale tridimensionale ad uno presente in un museo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato propone un'introduzione alla matematica intuizionista e alla sua formalizzazione. Dopo aver inquadrato storicamente il movimento e averne tratteggiato il pensiero, si approfondiscono la sintassi e la semantica ad esso associate grazie ai lavori di Heyting e Kripke, si confronta la teoria con quella classica, e si indica il legame tra la logica intuizionista e quella modale. Il capitolo conclusivo è dedicato alla costruzione dei numeri naturali e reali, con particolare attenzione alle conseguenze metodologiche del pensiero intuizionista, ai concetti originali e alle nozioni più fini in cui si suddividono alcune nozioni fondamentali della matematica tradizionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi sono stati utilizzati profili sismici a riflessione a varie scale, acquisiti nel Golfo di Corigliano (Margine Ionico della Calabria) con lo scopo di studiare la deformazione tettonica e l’organizzazione dei depositi superficiali (tardo Pleistocenici) di quest’area di transizione tra il fronte di collisione Appenninico e il retroarco della subduzione Calabra. Lo studio della Dorsale dell’Amendolara si è dimostrato essere un elemento chiave per la comprensione geologica di questo settore crostale, considerato relativamente stabile ma sede di una significativa sismicità. L’analisi dei profili sismici ha rivelato la presenza di un fronte tettonico attivo (Faglia dell’Amendolara) che corre lungo il fianco occidentale dell’omonima Dorsale e che, secondo numerose evidenze geologico-strutturali, sembrerebbe caratterizzato attualmente da una cinematica trascorrente sinistra. L’attuale regime si è probabilmente sovraimposto ai fronti compressivi Neogenico-Quaternari, legati alla convergenza Appenninica. Queste evidenze fanno ipotizzare che la genesi della depressione confinata tra la costa calabrese e la Dorsale dell’Amendolara, coincidente con il Bacino di Sibari-Corigliano, sia stata causata da flessura della litosfera in seguito all’avanzamento delle coltri compressive da NNE. I dati a disposizione mostrano che la depressione del Bacino di Sibari-Corigliano, si trova attualmente in una situazione di riempimento “passivo” da parte dei depositi provenienti dal Fiume Crati e da fenomeni di instabilità gravitativa, probabilmente innescati da terremoti localizzati soprattutto lungo il fianco occidentale della Dorsale dell’Amendolara.