94 resultados para Laboratori
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
L'isolamento gravitazionale delle sonde dello spazio profondo durante le loro fasi di crociera ed i loro esigui livelli di vibrazioni, le rendono la migliore collocazione possibile per mini-laboratori automatici di fisica fondamentale da installare su di esse come strumenti scientifici. Date le note difficoltà di misurazione della costante di gravitazione universale, probabilmente dovute alla collocazione terrestre dei laboratori, si propone di dedicare un mini-laboratorio alla misurazione del valore locale ed istantaneo della costante G ed alla sua stabilità spazio-temporale durante il moto della sonda. La misurazione di G nel mini-laboratorio può essere effettuata rilasciando con attuatori elettrostatici, senza velocità relativa, due masse campione, preferibilmente due sfere d’oro da 1Kg, a distanza di 1 mm, e monitorando il loro libero moto, dominato dall’attrazione gravitazionale reciproca, con un sensore di spostamento laser interferometrico multicanale. Dopo il congiungimento le masse dovrebbero essere riposizionate e rilasciate nuovamente per una misurazione quasi continua della costante. Un meccanismo dorrebbe invece bloccare le masse durante le fasi dinamiche della sonda. Un sensore di spostamento interferometrico a fibre ottiche, FPS3010 della Attocube, appariva adatto ed un esperimento è stato realizzato per provarlo in un apparato simulante il mini-laboratorio. In una campana del vuoto isolata dalle vibrazioni, due cilindri in tungsteno da 1Kg sono stati sospesi orizzontante tramite micro-Dyneema a piastre in allumino movimentate da nanoposizionatori piezoelettrici dotati di encoder ottico nanometrico. Il sensore ha monitorato il moto radiale dei cilindri, le cui basi combacianti sono state posizionate a distanze di separazione variabili da 10 micron a 5000 micron. Malgrado il rumore meccanico ed una sorgente ignota di errore sistematico, un moto attrattivo è stato riscontrato differenzialmente o direttamente in molte misurazioni e nessuna ha mostrato un moto repulsivo. In alcune misurazioni è direttamente visibile la rotazione dell’asse di oscillazione dei cilindri sospesi. Il sensore si è comportato egregiamente.
Resumo:
Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.
Resumo:
Questo lavoro di tesi è stato svolto nell'ambito del gruppo Nucl-ex di Bologna dell'INFN. L'esperimento specifico si inquadra nello studio di collisioni di nuclei con numero di neutroni N uguale al numero di protoni Z (nuclei pari-pari). In particolare si vuol analizzare una reazione centrale, cioè a piccoli parametri d'impatto, nella quale i nuclei del proiettile e del bersaglio fondono assieme formando un sistema unico eccitato (nucleo composto) che successivamente decade. Nel caso della misura descritta sono stati utilizzati un fascio di 16O ed un bersaglio di 12C ed il sistema fuso che si forma è 28Si. Per rivelare le particelle provenienti dal decadimento è stato impiegato l'apparato G.AR.F.I.E.L.D. (General Array for Fragment Identification and Emitted Light particles in Dissipative collisions) accoppiato al rivelatore denominato Ring Counter (RCo). La misura è stata realizzata presso i Laboratori Nazionali dell'INFN di Legnaro (Pd) in collaborazione tra le Università e le sezioni INFN di Bologna, Firenze, Napoli e Padova. Il fascio è stato accelerato mediante l'acceleratore elettrostatico Tandem XTU, mentre il bersaglio era fisso nel sistema di riferimento del laboratorio. La misura di collisione è stata realizzata per tre diverse energie cinetiche del fascio: 90.5 MeV, 110 MeV e 130 MeV. Il lavoro è consistito principalmente nella partecipazione a diverse fasi della misura, tra cui preparazione, presa dati ed alcune calibrazioni energetiche dei rivelatori, fino ad ottenere risultati preliminari sulle distribuzioni di frequenza dei frammenti rivelati, sulle molteplicità e sulle distribuzioni angolari di particelle leggere. L'analisi preliminare effettuata ha mostrato che il valore medio di carica del residuo di evaporazione {Definito come il frammento che rimane nello stato fondamentale alla fine della catena di decadimento.} diminuisce all'aumentare dell'energia a disposizione. In modo consistente aumenta, all'aumentare dell'energia, la molteplicità media delle delle particelle leggere. Le distribuzioni angolari di particelle leggere mostrano andamenti molto simili fra le diverse energie, ma poco compatibili con il fatto che, all'aumentare dell'energia del fascio, diminuisce il cono di emissione di particelle di decadimento, in quanto aumenta la velocità del sistema fuso.
Resumo:
Questo elaborato finale nasce dalla curiosità di saperne di più sulle microsabbiatrici per dentisti e odontotecnici a seguito del tirocinio curriculare. Scopo di questo glossario trilingue di base è quello di aiutare i futuri tirocinanti curriculari innanzitutto a conoscere questo macchinario di nicchia, utilizzato nei laboratori odontotecnici, e in secondo luogo di fornire loro la relativa traduzione in inglese e tedesco. Il lavoro si è svolto quanto segue: sono partita dalla consultazione di materiale terminologico online e sulle microsabbiatrici. Dopo aver letto attentamente tutti i testi raccolti, ho diviso il materiale della parte introduttivo-teorica dal materiale per la creazione dei corpora. Ho creato il corpus nelle diverse lingue, dal quale ho estratto i lessemi e le traduzioni che mi sono stati utili durante l’esperienza del tirocinio. Infine ho redatto trentadue schede terminologiche così divise: il macchinario e i suoi accessori, i materiali abrasivi e le tecniche di lavorazione.
Resumo:
La scoperta dei semiconduttori amorfi ha segnato l’era della microelettronica su larga scala rendendo possibile il loro impiego nelle celle solari o nei display a matrice attiva. Infatti, mentre i semiconduttori a cristalli singoli non sono consoni a questo tipo di applicazioni e i s. policristallini presentano il problema dei bordi di grano, i film amorfi possono essere creati su larga scala (>1 m^2) a basse temperature (ad es. <400 °C) ottenendo performance soddisfacenti sia su substrati rigidi che flessibili. Di recente la ricerca sta compiendo un grande sforzo per estendere l’utilizzo di questa nuova elettronica flessibile e su larga scala ad ambienti soggetti a radiazioni ionizzanti, come lo sono i detector di radiazioni o l’elettronica usata in applicazioni spaziali (satelliti). A questa ricerca volge anche la mia tesi, che si confronta con la fabbricazione e la caratterizzazione di transistor a film sottili basati su ossidi semiconduttori ad alta mobilità e lo studio della loro resistenza ai raggi X. La micro-fabbricazione, ottimizzazione e caratterizzazione dei dispositivi è stata realizzata nei laboratori CENIMAT e CEMOP dell’Università Nova di Lisbona durante quattro mesi di permanenza. Tutti i dispositivi sono stati creati con un canale n di ossido di Indio-Gallio-Zinco (IGZO). Durante questo periodo è stato realizzato un dispositivo dalle ottime performance e con interessanti caratteristiche, una delle quali è la non variazione del comportamento capacitivo in funzione della frequenza e la formidabile resistenza alle radiazioni. Questo dispositivo presenta 114 nm di dielettrico, realizzato con sette strati alternati di SiO2/ Ta2O5. L’attività di ricerca svolta al Dipartimento di Fisica e Astronomia di Bologna riguarda prevalentemente lo studio degli effetti delle radiazioni ionizzanti su TFTs. Gli esperimenti hanno rivelato che i dispositivi godono di una buona stabilità anche se soggetti alle radiazioni. Infatti hanno mostrato performance pressoché inalterate anche dopo un’esposizione a 1 kGy di dose cumulativa di raggi X mantenendo circa costanti parametri fondamentali come la mobilità, il threshold voltage e la sub-threshold slope. Inoltre gli effetti dei raggi X sui dispositivi, così come parametri fondamentali quali la mobilità, si sono rivelati essere notevolmente influenzati dallo spessore del dielettrico.
Resumo:
Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.
Resumo:
Questo elaborato concerne la revisione della letteratura scientifica relativa alla teorizzazione e realizzazione tecnologica del memristor, un nuovo componente elettronico teorizzato nel 1971 e realizzato solo nel 2008 nei laboratori della HP (Hewlett Packard, Palo Alto, California). Dopo una descrizione in termini matematici della teoria fisica alla base del dispositivo e del suo funzionamento, viene descritta la sua realizzazione tecnologica e il corrispettivo modello teorico. Succesivamente il lavoro discute la possibile analogia tra il funzionamento del memristor ed il funzionamento di neuroni e sinapsi biologiche all'interno del Sistema Nervoso Centrale. Infine, vengono descritte le architetture recentemente proposte per l'implementazione di reti neurali artificiali fondate su un sistema computazionale parallelo e realizzate mediante sistemi ibridi transistors/memristors.
Resumo:
Il TiO2 è probabilmente il fotocatalizzatore maggiormente studiato in letteratura a partire già dagli anni settanta. Le applicazioni più rilevanti dei dispositivi fotocatalitici sono in campo ambientale (depurazione delle acque da inquinanti quali coloranti, microbatteri e residui metallici) e nella produzione di "solar fuel" (combustibili solari), fra questi l'idrogeno. L'idrogeno come vettore energetico è eco-compatibile e può essere utilizzato come carburante il cui prodotto di scarto è vapor d'acqua. Il biossido di titanio è uno dei materiali più promettenti per la costruzione di celle fotocatalitiche, grazie alla sua biocompatibilità e resistenza alla corrosione in ambiente acquoso. Il limite principale di questo materiale è legato allo scarso assorbimento nel visibile dovuto al band gap troppo elevato (circa 3.2 eV). Fra le varie strategie per superare questo problema, è stato mostrato che opportuni droganti permettono di incrementare la "Visible Light Activity", portando ai cosiddetti fotocatalizzatori di 2a generazione. I droganti più promettenti sono il vanadio e l'azoto che possono essere utilizzati singolarmente o in co-doping. L'inserimento di questi materiali nella matrice di TiO2 porta a un notevole miglioramento dei dispositivi abbassando il valore di band gap e permettendo un maggiore assorbimento nello spettro solare. Scopo di questa tesi è lo studio dei processi di crescita di film nanoparticellari di TiO2 drogato con vanadio. La tecnica di crescita usata è la Condensazione in Gas Inerte (IGC), mentre per l'indagine di morfologia e composizione ci si è serviti della microscopia elettronica. Con l'ausilio della diffrazione di raggi X è stato possibile controllare lo stato di cristallizzazione e determinare a quali temperature di trattamento in atmosfera ossidante avviene quest'ultima. Tramite le misure micro-Raman effettuate presso i laboratori dell'Università di Trento è stato possibile monitorare l'andamento della cristallizzazione di campioni depositati con parametri di evaporazione differenti (presenza di ossigeno o meno nell'atmosfera di evaporazione), evidenziando un maggior controllo sulla fase cristallina ottenuta per i campioni cresciuti in atmosfera ricca di ossigeno. Sono state effettuate analisi strutturali avanzate presso i laboratori ESRF di Grenoble, dove sono state portate avanti misure di assorbimento di raggi X di tipo EXAFS e XANES sulla soglia del titanio e del vanadio, evidenziando il carattere sostituzionale del vanadio all'interno della matrice di TiO2 e le diverse fasi di cristallizzazione.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.
Resumo:
Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.
Resumo:
Lo scopo di questa tesi è valutare la resistenza a compressione e il valore del modulo elastico di tre laminati ottenuti con lo stesso materiale composito, CFRP, distinti in fase di laminazione dall’utilizzo di tre diverse tipologie di distaccante (peel-ply, film distaccante e controstampo). In questo modo è stato possibile valutare come quest’ultimi abbiano influito, in modo diverso per ogni laminato, sull’omogeneità dello spessore, sul peso, sulla fuoriuscita di resina e sulla percentuale volumetrica delle fibre. Tali fattori a loro volta hanno caratterizzato i valori di resistenza a compressione e modulo elastico. Nei capitoli successivi è descritto un metodo di analisi a compressione dei materiali compositi, a matrice epossidica rinforzata con fibre di carbonio (CFRP), denominato Combined Loading Compression (CLC) Test Method, basato sull’applicazione, combinata, del carico sul campione, a taglio e all’estremità. La realizzazione dei provini è stata effettuata presso i laboratori dell’università: sono stati realizzati 3 laminati, per ognuno dei quali si è scelto di utilizzare su ogni pezzo una diversa tipologia di distaccante: controstampo, film distaccante e peel-ply, allo scopo di valutare quanta resina uscirà dal manufatto una volta in autoclave e quanta variazione di spessore avremo. Da ognuno di questi laminati sono stati ricavati 5 provini. La campagna sperimentale è stata condotta presso il Laboratorio Tecnologie dei Materiali Faenza (TEMAF). L’elaborazione dei dati è stata effettuata mediante l’utilizzo del software Office Excel, in cui sono stati calcolati i parametri fondamentali, suggeriti dalla normativa ASTM D6641/D6641M, per la caratterizzazione meccanica a compressione dei materiali CFRP.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
Una illustrazione sperimentale dei principi di due principali tecniche olografiche: a trasmissione e riflessione, tramite applicazione delle stesse nei laboratori del DIFA. Con trattazione successiva di tecniche di olografia digitale e relative applicazioni tecnologiche in vari campi.
Resumo:
Gli ammassi globulari rappresentano i laboratori ideali nei quali studiare la dinamica di sistemi ad N-corpi ed i suoi effetti sull’evoluzione stellare. Infatti, gli ammassi globulari sono gli unici sistemi astrofisici che, entro il tempo scala dell’età dell’Universo, sperimentano quasi tutti i processi di dinamica stellare noti. Questo lavoro di tesi si inserisce in un progetto a lungo termine volto a fornire una dettagliata caratterizzazione delle proprietà dinamiche degli ammassi globulari galattici. In questa ricerca, strumenti di fondamentale importanza sono il profilo di dispersione di velocità del sistema e la sua curva di rotazione. Per determinare le componenti radiali di questi profili cinematici in ammassi globulari galattici è necessario misurare la velocità lungo la linea di vista di un ampio campione di stelle membre, a differenti distanze dal centro. Seguendo un approccio multi-strumentale, è possibile campionare l’intera estensione radiale dell’ammasso utilizzando spettrografi multi-oggetto ad alta risoluzione spettrale nelle regioni intermedie/esterne, e spettrografi IFU con ottiche adattive per le regioni centrali (pochi secondi d’arco dal centro). Questo lavoro di tesi è volto a determinare il profilo di dispersione di velocità dell’ammasso globulare 47 Tucanae, campionando un’estensione radiale compresa tra circa 20'' e 13' dal centro. Per questo scopo sono state misurate le velocità radiali di circa un migliaio di stelle nella direzione di 47 Tucanae, utilizzando spettri ad alta risoluzione ottenuti con lo spettrografo multi-oggetto FLAMES montato al Very Large Telescope dell’ESO. Le velocità radiali sono state misurate utilizzando la tecnica di cross-correlazione tra gli spettri osservati e appropriati spettri teorici, e sono state ottenute accuratezze inferiori a 0.5km/s. Il campione così ottenuto (complementare a quello raccolto con strumenti IFU nelle regioni centrali) è fondamentale per costruire il profilo di dispersione di velocità dell’ammasso e la sua eventuale curva di rotazione. Questi dati, combinati col profilo di densità dell’ammasso precedentemente determinato, permetteranno di vincolare opportunamente modelli teorici come quelli di King (1966) o di Wilson (1975), e di arrivare così alla prima solida determinazione dei parametri strutturali e dinamici (raggi di core e di metà massa, tempo di rilassamento, parametro collisionale, etc.) e della massa totale e distribuzione di massa del sistema.