368 resultados para Crostacei, Palinurus elephas, Frequenza, Rumore antropico, Aragosta


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato di seguito è volto al miglioramento delle prestazioni dell'apparato per la Tecar terapia prodotto da EME.srl. Tale apparato presenta, allo stato attuale, un sistema basato principalmente su circuiti a componenti attivi operanti in regione lineare che producono una oscillazione a 455kHz, la amplificano e infine la adattano alle caratteristiche richieste per tale apparato. Ampiezza dell'oscillazione e corrente sul carico (paziente) vengono controllate mediante un doppio sistema di retroazione: uno analogico e uno basato su microcontrollore. Entrambi i sistemi lavorano sui valori medi di tensione e corrente. Lo scopo di tale elaborato è quello di migliorare tale apparato rendendo possibile il controllo di nuovi parametri, come la frequenza di oscillazione cosa non possibile nell'attuale implementazione. Si valuterà, nell'ambito dell'attività di tesi, se mantenere l'idea costruttiva originale in cui si aveva un oscillatore autonomo con una cascata di amplificazione a efficienza non elevatissima, retroazionato analogicamente e un controllo mediante uC, oppure passare ad una nuova architettura totalmente gestita da uC sfruttando topologie utilizzate in altri macchinari di EME.srl con l'aggiunta di soluzioni tratte dal mondo delle energie rinnovabili. Per lo studio di tale apparato verrà effettuata inoltre una caratterizzazione sperimentale del corpo umano utilizzando la mano di un soggetto volontario per avere un carico campione realistico e cercando ulteriori riscontri in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un noto centro di ricerca europea ha recentemente modificato un jet convenzionale di classe CS-25 in una piattaforma scientifica. Durante il processo di certificazione delle modifiche, l’impatto delle stesse sulle prestazioni è stato studiato in modo esaustivo. Per lo studio delle qualità di volo, i piloti collaudatori hanno sviluppato una procedura di certificazione ad hoc che consiste in test qualitativi separati della stabilità longitudinale, laterale e direzionale. L’obiettivo della tesi è analizzare i dati di volo, registrati durante i test di collaudo, con l'obiettivo di estrarre informazioni di carattere quantitativo circa la stabilità longitudinale del velivolo modificato. In primo luogo sono state analizzate tre diverse modifiche apportate all’aeromobile e successivamente i risultati sono stati messi a confronto per capirne l’influenza sulle qualità di volo dell’aeromobile. Le derivate aerodinamiche sono state stimate utilizzando la cosiddetta “identificazione dei parametri”, che mira a replicare le variabili registrate durante i test di volo, variando un dato insieme di coefficienti all’interno del modello linearizzato della dinamica dell’aeromobile. L'identificazione del modo di corto periodo ha consentito l'estrazione dei suoi parametri caratteristici, quali il rapporto di smorzamento e la frequenza naturale. La procedura ha consentito inoltre di calcolare il cosiddetto “Control Anticipation Parameter” (CAP), parametro caratterizzante delle qualità di volo di un aeroplano. I risultati ottenuti sono stati messi a confronto con i requisiti prescritti dalla normativa MIL-STD-1797-A, risultando conformi al livello più alto di qualità di volo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale “S. Maria delle Croci” di Ravenna, Azienda Unità Sanitaria Locale della Romagna, ed ha come obiettivo lo sviluppo di un metodo per l’individuazione dell’atrio sinistro in sequenze di immagini ecografiche intracardiache acquisite durante procedure di ablazione cardiaca transcatetere per il trattamento della fibrillazione atriale. La localizzazione della parete posteriore dell'atrio sinistro in immagini ecocardiografiche intracardiache risulta fondamentale qualora si voglia monitorare la posizione dell'esofago rispetto alla parete stessa per ridurre il rischio di formazione della fistola atrio esofagea. Le immagini derivanti da ecografia intracardiaca sono state acquisite durante la procedura di ablazione cardiaca ed esportate direttamente dall’ecografo in formato Audio Video Interleave (AVI). L’estrazione dei singoli frames è stata eseguita implementando un apposito programma in Matlab, ottenendo così il set di dati su cui implementare il metodo di individuazione della parete atriale. A causa dell’eccessivo rumore presente in alcuni set di dati all’interno della camera atriale, sono stati sviluppati due differenti metodi per il tracciamento automatico del contorno della parete dell’atrio sinistro. Il primo, utilizzato per le immagini più “pulite”, si basa sull’utilizzo del modello Chan-Vese, un metodo di segmentazione level-set region-based, mentre il secondo, efficace in presenza di rumore, sfrutta il metodo di clustering K-means. Entrambi i metodi prevedono l’individuazione automatica dell’atrio, senza che il clinico fornisca informazioni in merito alla posizione dello stesso, e l’utilizzo di operatori morfologici per l’eliminazione di regioni spurie. I risultati così ottenuti sono stati valutati qualitativamente, sovrapponendo il contorno individuato all'immagine ecografica e valutando la bontà del tracciamento. Inoltre per due set di dati, segmentati con i due diversi metodi, è stata eseguita una valutazione quantitativa confrontatoli con il risultato del tracciamento manuale eseguito dal clinico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di questa tesi di laurea è la progettazione di una nuova scuola primaria in Via Bidente, località Villaggio Primo Maggio a Rimini. La tesi parte da un progetto preliminare, elaborato dall’ufficio tecnico del Comune di Rimini, sulla base del quale, nel settembre 2013, è stato indetto un appalto integrato con procedura aperta per l’affidamento sia della progettazione esecutiva che della realizzazione della scuola. L’intervento si era reso necessario poiché la vecchia scuola non era più in grado di far fronte alle esigenze del quartiere, investito da un intenso sviluppo che ne aveva aumentato sensibilmente gli abitanti e quindi la popolazione scolastica. La tesi ha assunto gli obiettivi e i dimensionamenti fissati dal Bando di gara: quindici aule, sei laboratori, palestra, biblioteca, mensa, sala insegnanti, area verde, parcheggio, pista ciclopedonale. Per definire le strategie di progetto da adottare, è stata effettuata un’analisi dell’area dalla quale sono emerse esigenze e criticità del quartiere. A scala urbana la viabilità e la fruibilità del lotto risultano inadeguate, e per correggerle, si è prevista la realizzazione di una nuova pista ciclabile e di un parcheggio. Inoltre professionisti esperti e di comprovata esperienza in materia hanno condotto studi approfonditi ed attente valutazioni di carattere ambientale, riguardanti l’inquinamento elettromagnetico, acustico ed atmosferico. Per limitare l'inquinamento acustico a cui la scuola risulterebbe esposta, è stata prevista la realizzazione di alcuni tratti di barriere fonoassorbenti lungo il perimetro dell’area di progetto al fine di proteggerla dalle fonti di rumore maggiormente impattanti. Al centro delle strategie progettuali c’è il bambino, che diventa il vero committente, ossia il soggetto di cui soddisfare esigenze e desideri. Si è cercato quindi di realizzare un ambiente confortevole e sicuro in cui i bambini si sentano a proprio agio. A scala architettonica si è pensata a una distribuzione degli spazi che permetta di sfruttare a pieno le potenzialità degli ambienti attraverso una collocazione delle funzioni su tre diverse fasce longitudinali: servizi nella zona nord, connettivo e aule a sud. Inoltre è stato studiato uno schema distributivo in linea con le esigenze dei nuovi modelli pedagogici, in particolare: aule e laboratori adattabili, spazi per l’apprendimento di gruppo sia all’interno che all’esterno dell’edificio, i cui spazi di distribuzione sono dimensionati per poter ospitare anche funzioni didattiche. Ogni scelta adottata vuol far si che tutto l’edificio diventi fonte di insegnamento per i bambini, una sorta di paesaggio dell’apprendimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da numerose osservazioni astronomiche e cosmologiche si ipotizza che la Materia Oscura rappresenti gran parte della massa dell’Universo. La Materia Oscura ha la particolarita` di interagire solo gravitazionalmente o debolmente e si presenta come massiva e neutra. Tra i vari candidati al ruolo di particelle di Materia Oscura troviamo le WIMP (Weakly Interacting Massive Particles). Un’esperimento che si propone di rivelare in modo diretto le WIMP, mediante la loro diffusione elastica su nuclei di Xeno, `e il progetto XENON presso i Laboratori Nazionali del Gran Sasso. Le tecniche di rivelazione diretta prevedono l’utilizzo di rivelatori grandi, in questo caso a gas nobile, ultra puri e situati in ambienti a bassa radioattivita` per diminuire il rumore di fondo come ad esempio i neutroni indotti dai muoni provenienti dai raggi cosmici (laboratori sotterranei). A causa della sezione d’urto molto piccola necessario raggiungere basse energie di soglia. A tal proposito sono in fase di ricerca e sviluppo soluzioni che permettano di migliorare le prestazioni del rivelatore; ad esempio sono in fase di studio soluzioni tecnologiche che migliorino la raccolta di luce. Una di queste prevede l’utilizzo di foto rivelatori tipo SiPM da affiancare a normali PMT. Tali rivelatori devono essere in grado di funzionare a basse temperature (circa −100◦ C) e devono poter rivelare fotoni di lunghezza d’onda di 178 nm. Il mio lavoro di tesi si colloca nell’ambito di tale progetto di ricerca e sviluppo. Lo scopo di questo lavoro `e stato infatti la preparazione di un setup sperimentale per caratterizzare in aria fotorivelatori SiPM Hamamatsu (prototipo codice S12574) in grado di lavorare in Xeno liquido. Oltre all’installazione del setup mi sono occupato di scrivere un programma in C++ in grado di analizzare le forme d’onda acquisite in run preliminari e di misurare guadagno e dark count rate del rivelatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il GPL, a causa della sua infiammabilità, può dare luogo a scenari d’incendio e di esplosione. Particolarmente pericoloso è lo scenario del BLEVE – Boiling Liquid Expanding Vapor Explosion, seguito da un incendio del tipo fireball. Una strategia per la riduzione del rischio imputabile a tale scenario è rappresentato dall’applicazione di protezioni passive antincendio. Le misure di protezione passive antincendio sono costituite dall’applicazione al recipiente di GPL di una coibentazione termica, che ritardi il tempo di cedimento dell’apparecchiatura nel caso di esposizione al fuoco e quindi riduce la frequenza del BLEVE e della conseguente fireball, fornendo un lasso di tempo sufficiente per consentire l'avvio di azioni di mitigazione. Nel presente lavoro di tesi si è effettuata l’analisi costi-benefici dell’applicazione di protezioni passive alle autobotti per il trasporto stradale di GPL. Si è applicato un metodo semplificato per l’analisi sopracitata, considerando l’influenza delle incertezze sul risultato finale In particolare sono state considerate le incertezze derivanti dal modello d‘irraggiamento, dal modello di danno e dalle assunzioni in merito alla descrizione della popolazione nell’area di impatto dell’incidente. Il lavoro di tesi è così strutturato. Nel capitolo 1, di carattere introduttivo, sono riportate informazioni sul GPL, sugli scenari incidentali a cui dà origine e sulle protezioni passive antincendio. Nel capitolo 2 vengono descritti i modelli matematici per la simulazione della fireball, considerando sia i modelli per la stima dell’irraggiamento che quelli per il calcolo della probabilità di morte. Il capitolo 3 contiene la descrizione del modello semplificato di analisi costi-benefici ed il calcolo dell’area di impatto equivalente della fireball. Il capitolo 4 contiene l’applicazione del modello di analisi costi-benefici ad alcuni casi di studio reali. Il capitolo 5, infine, contiene le considerazioni conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è analizzato il caso di sensori con uscita in frequenza e periodo, si traduce in ultima analisi nella capacità di misurare con precisione un intervallo temporale. La rivelazione del tempo risulta essere lo stadio fondamentale da cui deriva la risoluzione dell'intero sistema di misura. Nella realtà, la questione della simultaneità cioè individuare con assoluta precisione due eventi che si verificano contemporaneamente, in un determinato istante t, è un problema piuttosto complesso: le difficoltà sono correlate soprattutto alle limitazioni fisiche intrinseche degli strumenti di misura. E' utile allora fornire un'analisi sui principi e le tecniche alla base della misura di intervalli temporali, detta Time Interval Measurement (TIM). Lo scopo della tesi è studiare i vari metodi per realizzare TDC lineari digitali, facendo un'analisi critica e ed evidenziando pro e contro che i vari approcci presentano, attingendo e analizzando criticamente informazioni dalle varie fonti riportate in bibliografia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una particella carica che si muove in un campo magnetico e` accelerata dalla forza di Lorentz, e di conseguenza emette della radiazione. Quindi si escludo- no a priori i neutroni, che sebbene siano formati da particelle cariche (i quarks) sono globalmente neutre. Per accelerazione, si intende anche solo un’acce- lerazione centripeta di cui risentono le particelle cariche nel campo, sebbene non vi sia una variazione nel modulo della velocita`. In base alla velocita` delle particelle cariche che si muovono nel campo magnetico si possono distinguere radiazione di ciclotrone e di sincrotrone. La radiazione di ciclotrone e` presente quando le particelle cariche hanno velocita` non relativistiche o relativistiche, invece la radiazione di sincrotrone e` presente quando le particelle hanno velo- cita` ultra-relativistiche. Entrambe sono radiazioni che non necessitano dell’equilibrio termico del mez- zo, e sono radiazioni impulsive. Cio` che le distingue, a parte la velocita`, e` la tipologia di impulsi che si misurano. Infatti nel caso del sincrotrone, ove le par- ticelle sono ultra-relativistiche, gli impulsi arrivano molto ravvicinati fra loro. Nel caso del ciclotrone arrivano impulsi meno ravvicinati che coincidono con la frequenza di rotazione nel campo magnetico. In questo elaborato ci si soffermera` esclusivamente sull’emissione di sincro- trone e su alcune applicazioni astrofisiche di questo processo, cercando di dare una trattazione sufficiente, seppur scarna, ai fini di capire un processo fisico molto importante negli ambienti astrofisici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'isolamento gravitazionale delle sonde dello spazio profondo durante le loro fasi di crociera ed i loro esigui livelli di vibrazioni, le rendono la migliore collocazione possibile per mini-laboratori automatici di fisica fondamentale da installare su di esse come strumenti scientifici. Date le note difficoltà di misurazione della costante di gravitazione universale, probabilmente dovute alla collocazione terrestre dei laboratori, si propone di dedicare un mini-laboratorio alla misurazione del valore locale ed istantaneo della costante G ed alla sua stabilità spazio-temporale durante il moto della sonda. La misurazione di G nel mini-laboratorio può essere effettuata rilasciando con attuatori elettrostatici, senza velocità relativa, due masse campione, preferibilmente due sfere d’oro da 1Kg, a distanza di 1 mm, e monitorando il loro libero moto, dominato dall’attrazione gravitazionale reciproca, con un sensore di spostamento laser interferometrico multicanale. Dopo il congiungimento le masse dovrebbero essere riposizionate e rilasciate nuovamente per una misurazione quasi continua della costante. Un meccanismo dorrebbe invece bloccare le masse durante le fasi dinamiche della sonda. Un sensore di spostamento interferometrico a fibre ottiche, FPS3010 della Attocube, appariva adatto ed un esperimento è stato realizzato per provarlo in un apparato simulante il mini-laboratorio. In una campana del vuoto isolata dalle vibrazioni, due cilindri in tungsteno da 1Kg sono stati sospesi orizzontante tramite micro-Dyneema a piastre in allumino movimentate da nanoposizionatori piezoelettrici dotati di encoder ottico nanometrico. Il sensore ha monitorato il moto radiale dei cilindri, le cui basi combacianti sono state posizionate a distanze di separazione variabili da 10 micron a 5000 micron. Malgrado il rumore meccanico ed una sorgente ignota di errore sistematico, un moto attrattivo è stato riscontrato differenzialmente o direttamente in molte misurazioni e nessuna ha mostrato un moto repulsivo. In alcune misurazioni è direttamente visibile la rotazione dell’asse di oscillazione dei cilindri sospesi. Il sensore si è comportato egregiamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato svolto nell'ambito del gruppo Nucl-ex di Bologna dell'INFN. L'esperimento specifico si inquadra nello studio di collisioni di nuclei con numero di neutroni N uguale al numero di protoni Z (nuclei pari-pari). In particolare si vuol analizzare una reazione centrale, cioè a piccoli parametri d'impatto, nella quale i nuclei del proiettile e del bersaglio fondono assieme formando un sistema unico eccitato (nucleo composto) che successivamente decade. Nel caso della misura descritta sono stati utilizzati un fascio di 16O ed un bersaglio di 12C ed il sistema fuso che si forma è 28Si. Per rivelare le particelle provenienti dal decadimento è stato impiegato l'apparato G.AR.F.I.E.L.D. (General Array for Fragment Identification and Emitted Light particles in Dissipative collisions) accoppiato al rivelatore denominato Ring Counter (RCo). La misura è stata realizzata presso i Laboratori Nazionali dell'INFN di Legnaro (Pd) in collaborazione tra le Università e le sezioni INFN di Bologna, Firenze, Napoli e Padova. Il fascio è stato accelerato mediante l'acceleratore elettrostatico Tandem XTU, mentre il bersaglio era fisso nel sistema di riferimento del laboratorio. La misura di collisione è stata realizzata per tre diverse energie cinetiche del fascio: 90.5 MeV, 110 MeV e 130 MeV. Il lavoro è consistito principalmente nella partecipazione a diverse fasi della misura, tra cui preparazione, presa dati ed alcune calibrazioni energetiche dei rivelatori, fino ad ottenere risultati preliminari sulle distribuzioni di frequenza dei frammenti rivelati, sulle molteplicità e sulle distribuzioni angolari di particelle leggere. L'analisi preliminare effettuata ha mostrato che il valore medio di carica del residuo di evaporazione {Definito come il frammento che rimane nello stato fondamentale alla fine della catena di decadimento.} diminuisce all'aumentare dell'energia a disposizione. In modo consistente aumenta, all'aumentare dell'energia, la molteplicità media delle delle particelle leggere. Le distribuzioni angolari di particelle leggere mostrano andamenti molto simili fra le diverse energie, ma poco compatibili con il fatto che, all'aumentare dell'energia del fascio, diminuisce il cono di emissione di particelle di decadimento, in quanto aumenta la velocità del sistema fuso.