478 resultados para trattamento dati personali giuridici sensibili privacy tutela del lavoratore video sorveglianza
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
Le immagini termiche all’ infrarosso sono utilizzate da molte decadi per monitorare la distribuzione di temperatura della pelle umana. Anormalità come infiammazioni ed infezioni causano un aumento locale della temperatura, visibile sulle immagini sotto forma di hot spot. In tal senso la termografia ad infrarossi può essere utilizzata nel campo ortopedico per rilevare le zone sovra-caricate dalla protesi. Per effettuare una valutazione precisa dell’interfaccia moncone-invasatura può essere utile combinare i dati termografici e i dati antropometrici (superficie tridimensionale del moncone), relativi ai singoli pazienti. Di ciò si occupa tale studio, che dopo aver fornito una panoramica sulla termografia e sulla reverse engineering, sperimenta delle tecniche semplici e low-cost per combinare i dati termici e i dati antropometrici. Buoni risultati si riescono ad ottenere utilizzando un Kinect come scanner e un software open-source per il texture mapping. I termogrammi 3D ricreati costituiscono un ottimo strumento di valutazione, per medici e tecnici ortopedici, circa il design dell’invasatura.
Resumo:
Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.
Resumo:
Coniato negli anni‘90 il termine indica lo scavare tra i dati con chiara metafora del gold mining, ossia la ricerca dell’oro. Oggi è sinonimo di ricerca di informazione in vasti database, ed enfatizza il processo di analisi all’interno dei dati in alternativa all’uso di specifici metodi di analisi. Il data mining è una serie di metodi e tecniche usate per esplorare e analizzare grandi set di dati, in modo da trovare alcune regole sconosciute o nascoste, associazioni o tendenze.
Resumo:
L’ossido di grafene è caratterizzato da una elevata quantità di gruppi funzionali contenenti ossigeno sia sulla superficie che sui bordi e grazie ad essi è altamente disperdibile in acqua. Questa peculiare caratteristica permette il suo utilizzo come catalizzatore nelle reazioni in fase liquida. I materiali grafenici possono essere impiegati come catalizzatori e come supporti in diversi campi della catalisi, tra cui la bioraffineria. Uno dei principali derivati da biomasse è il 5-idrossimetilfurfurale (HMF). In questa tesi è stata investigata la reazione di riduzione selettiva del gruppo aldeidico di HMF per ottenere 2,5-bisidrossimetilfurano (BHMF), utilizzato per la produzione di polimeri e come intermedio per la produzione di acido adipico ed esametilediammina. In questo lavoro di tesi si è cercato di sviluppare un catalizzatore in grado di operare a bassa temperatura e con basse pressioni di H2, utilizzando acqua come solvente. Lo scopo di questo lavoro è stato quindi lo studio e la caratterizzazione di catalizzatori eterogenei in pellet a base di Pt/ossido di grafene/ossidi ceramici (TiO2, Al2O3) e la loro applicazione nella reazione di riduzione del 5-idrossimetilfurfurale (HMF) a 2,5-bisidrossimetilfurano (BHMF) in fase liquida. Per lo sviluppo del catalizzatore sono state indagate diverse vie di sintesi e diversi precursori di Pt. Per conoscere le condizioni ottimali di reazione, selezionare il supporto ottimale e studiare l’influenza dell’area superficiale sono stati preparati catalizzatori tradizionali di riferimento in polvere. Le prestazioni dei catalizzatori in polvere sono state inoltre confrontate con i catalizzatori analoghi in pellet per verificare l’influenza del trasferimento di materia. Infine, si è studiata l’influenza del GO nell’attività catalitica utilizzando due forme cristalline di titania. I dati catalitici ottenuti sono stati confrontati con dei catalizzatori convenzionali in polvere di Pt supportato su carbone (grafene e carbone attivo). Le proprietà dei catalizzatori preparati sono state messe in relazione con la loro attività catalitica.
Resumo:
In questa tesi viene proposta una revisione della cartografia geologica del Bacino di Tataouine, nella Tunisia meridionale, mediante la combinazione di sezioni stratigrafiche rilevate in campagna, acquisizione di cartografie a diversa risoluzione presenti in letteratura e applicazione di tecnologie GIS. In particolare, si è cercato di migliorare la risoluzione del materiale cartografico esaminato in specifici settori dell’area di studio fornendo informazioni dettagliate per le singole unità stratigrafiche affioranti. I dati esaminati si riferiscono principalmente alle successioni esposte lungo la scarpata del Dahar, un elemento morfologico sub-verticale che si estende nell’intera area di studio e che rende particolarmente difficile la rappresentazione in pianta delle diverse unità affioranti. A supporto dei dati di campagna (che si riferiscono a 23 sezioni stratigrafiche e 43 punti di controllo) sono stati integrati i dati ottenuti da immagini satellitari ad alta risoluzione. L’utilizzo di ArcMap ha permesso di unire i diversi dataset e ottenere quindi carte geologiche a maggiore risoluzione stratigrafica rispetto a quelle disponibili. L’applicazione della metodologia illustrata in questo progetto, se trasferita ad altri casi studio, potrebbe divenire una modalità operativa utile per ottenere una maggiore risoluzione nella rappresentazione in carta della geologia di un territorio.
Resumo:
Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
All’interno di questa tesi è stata affrontata la tematica della realizzazione di comuni- cazioni sicure, in modo da ottenere l'indipendenza di queste ultime dal canale utilizzato, con l'ausilio di strumenti in grado di fornire supporto per la creazione di applicativi orientati allo scambio di dati e messaggi, quali i linguaggi di programmazione Java e Jolie, il quale è basato sul precedente. Sono state inizialmente analizzate le principali caratteristiche e le problematiche più importanti che è necessario dover risolvere in modo da poter arrivare al risultato desiderato. Successivamente, è stato dato un ampio sguardo ad una delle scienze più applicate per risolvere i problemi tipici che affliggono questo tipo di comunicazioni, la crittografia. Sono stati elencati gli strumenti messi a disposizione ed il loro funzionamento. La crittografia viene poi applicata al protocollo SSL, il quale rappresenta la soluzione maggiormente diffusa, sia sul Web che in altri ambiti, per proteggere le informazioni personali che transitano tra gli end-point di una comunicazione. Sono state elencate le principali caratteristiche, alcuni cenni riguardanti la nascita e lo sviluppo ed è stato descritto il funzionamento di questo protocollo, soprattutto per quanto riguarda la sua fase preliminare, che è una delle parti che lo caratterizzano maggiormente. In seguito, è stata analizzata la soluzione fornita all’interno delle librerie del linguaggio Java per realizzare comunicazioni indipendenti dal mezzo di comunicazione che soddisfino le politiche dettate dal protocollo SSL. Questa soluzione è rappresentata dalla classe SSLEngine, che è quindi stata esaminata, a partire dal ciclo di vita e dall'inizializzazione, fino ad arrivare all'interazione all'interno di un applicazione. Quanto esplorato in precedenza viene poi applicato a Jolie, un linguaggio di programmazione basato sulle comunicazioni e sviluppato in Java, all'interno dell'Università di Bologna. Dopo uno sguardo generale alle sue caratteristiche è stata approfondita la gestione dei protocolli, e di conseguenza, l'introduzione di SSL all'interno di essi, realizzata tramite la classe SSLProtocol. Questa classe contiene ed implementa i concetti analizzati nel capitolo riguardante Java, adattandoli all'architettura ed alla progettazione pensata appositamente per Jolie; è stata quindi effettuata un'analisi del codice e della gestione della classe SSLEngine per realizzare comunicazioni sicure. Infine, per verificare l’effettivo funzionamento, sono stati creati due semplici casi d’uso per poter sfruttare i vantaggi offerti da Jolie, il quale è particolarmente indicato per la creazione di applicazioni orientate ai servizi.
Resumo:
Questa tesi è incentrata sul sottotitolaggio di un episodio della serie TV "Mozart in the Jungle". Ho ritenuto che fosse interessante utilizzare questa serie perché offre diversi spunti di riflessione, sia dal punto di vista della traduzione per i sottotitoli sia che dal punto di vista dell'innovazione nell'ambito della produzione e della distribuzione di prodotti audiovisivi. Il lavoro è suddiviso in tre capitoli. Il primo capitolo presenta l’oggetto di studio della tesi, ovvero la serie TV. Alla descrizione della trama generale della prima stagione e di quella specifica del primo episodio (Pilot) viene affiancata un'analisi del fenomeno del crowdsourcing, al quale Amazon, casa produttrice della serie, ha fatto ricorso per creare questa ed altre serie di successo grazie all’aiuto del popolo del web. Nel secondo capitolo viene mostrata una panoramica sulla teoria della traduzione audiovisiva e più specificatamente del sottotitolaggio e dei principali accorgimenti che un sottotitolatore deve adottare. Il terzo e ultimo capitolo, invece, descrive l'applicazione pratica degli elementi individuati nel secondo capitolo, utilizzando esempi tratti dal testo originale e dalla mia traduzione per illustrare le strategie di risoluzione dei problemi traduttivi. Il paragrafo conclusivo include infine brevi considerazioni personali su alcuni aspetti del sottotitolaggio in generale.
Resumo:
Abstract in italiano L’oggetto del presente elaborato è una proposta di traduzione dal portoghese all’italiano di un racconto della scrittrice brasiliana Zélia Gattai intitolato "Pipistrelo das mil cores". Il libro ha come fine quello di educare i più piccoli alla tutela della fauna e porre un freno alla crudeltà sugli animali. Questo progetto si divide in tre capitoli: nel primo vengono presentate l’autrice e l’opera, nel secondo la traduzione e, nell’ultimo, vengono commentate le scelte traduttive con particolare attenzione al tipo di pubblico cui il testo è rivolto. Sinopse em português O tema desta dissertação é uma proposta de tradução de português para italiano dum conto da literatura infantil brasileira cujo título é "Pipistrelo das mil cores" escrito por Zélia Gattai. O livro tem o fim de sensibilizar as crianças sobre a salvaguarda da fauna e de pôr fim aos maus tratos infligidos aos animais. Este estudo encontra-se dividido em três capítulos: no primeiro, é apresentada a autora e a obra, no segundo, a tradução e, no terceiro, analizam-se as opções tradutivas com especial atenção para o tipo de leitores aos quais o texto está endereçado. Abstract in English The aim of this dissertation is to translate a piece of Brazilian children’s literature published under the title of "Pipistrelo das mil cores" written by Zélia Gattai from Portuguese into Italian. The objective of the book is to raise awareness of wildlife conservation and of cruelty to animals. This study is divided into three chapters. The first one introduces the author and the book, the second one presents a translation proposal and the last one analyses the translating choices with particular attention to the target audience.
Resumo:
L'esperimento LHCb è stato progettato per eseguire misure di altissima precisione nel settore della fisica dei quark pesanti al Large Hadron Collidere del CERN. Sfruttando l'alta sezione d'urto di produzione di charm nelle interazioni protone-protone ad LHC e utilizzando la statistica raccolta durante il RUN-1, corrispondente ad una luminosità integrata di 3 fb{-1}, l'esperimento LHCb ha realizzato le misure più precise al mondo in questo settore. In particolare i decadimenti del mesone D0 in due corpi carichi senza leptoni nello stato finale hanno permesso di realizzare misure di violazione di CP} che raggiungono precisioni inferiori al 0.1 %. Da pochi mesi LHCb ha iniziato la seconda fase di presa dati, chiamata RUN-2, raccogliendo dati dalle interazioni protone-protone ad una energia nel centro di massa di sqrt{s}=13 TeV, superiore a quella del RUN-1. Le misure attuali di violazione di CP nel settore del charm, sono consistenti con l'ipotesi di non violazione. Il Modello Standard, pur con grandi incertezze teoriche, prevede una violazione di CP molto piccola, pertanto per verificare o meno l'esistenza di taleviolazione, sarà necessario sfruttare al massimo la statistica che verrà raccolta durante il RUN-2, ottimizzando gli algoritmi di selezione dei canali di interesse. In questa tesi verrà presentata uno studio preliminare che ha lo scopo di ottimizzare, mediante una tecnica di analisi multivariata, la selezione dei decadimenti D^*pm-> D0(K+K-)pi_s^pm e D^*pm}-> D0(pi+pi-)pi_s^pm} in previsione della prossima presa dati.
Resumo:
Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.