478 resultados para trattamento dati personali giuridici sensibili privacy tutela del lavoratore video sorveglianza


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato tratta dello sviluppo di un'applicazione mobile per la visualizzazione di opendata ambientali. E' diviso in due parti: la prima che illustra l'importanza dei dati e dei dati aperti per l'innovazione e lo sviluppo, la seconda che racconta la gestione del progetto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi ha natura sperimentale ed è mirata alla valutazione, attraverso l’uso di un programma agli elementi finiti tridimensionale, dell’interazione tra lo scavo del pozzo di introduzione scudi e le Mura Aureliane adiacenti a Porta Asinaria, a Roma. La prima parte della tesi si è concentrata sulla caratterizzazione geotecnica, a partire dai dati ricavati dalle campagne d’indagine eseguite nel tempo. Una volta effettuata la caratterizzazione geotecnica si è passati alla calibrazione del modello costitutivo per il terreno; si è scelto di adottare un legame costitutivo elasto-plastico incrudente, l’Hardening Soil Model with Small Strain Stiffness. Si è quindi passati alla definizione geometrica e dei materiali, utilizzando i rilievi strutturali e topografici, e alla conseguente definizione dei parametri del modello costitutivo adottato per la muratura e per il nucleo interno. In questo caso è stato adottato il modello di Mohr-Coulomb. La geometria globale è stata infine importata dal programma di calcolo PLAXIS 3D a partire da un modello tridimensionale realizzato con il programma Autocad Civil 3D. L'analisi agli elementi finiti ha valutato la realizzazione di diverse configurazioni possibili riguardanti la modellazione del pozzo e di eventuali opere di mitigazione degli effetti, quali lo sbancamento a tergo delle Mura e il successivo rinterro, a scavo ultimato. Si è inoltre analizzata l’influenza provocata da un possibile degrado della muratura. In ultimo sono stati analizzati e commentati i risultati di ciascun’analisi eseguita, in termini di stati deformativi e tensionali, ponendo l’attenzione sulle differenze di comportamento rilevate nelle diverse configurazioni adottate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi è incentrata sullo studio del flusso di neutroni e della funzione di risoluzione del progetto n_TOF al CERN di Ginevra. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che stanno alla base di questo progetto di collaborazione internazionale, si trattano sommariamente alcune delle più importanti applicazioni della fisica neutronica e si descrive la facility di Ginevra. Nella parte finale del lavoro si presenta una misura di precisione ottenuta dal flusso di neutroni utilizzato nell'esperimento n_TOF nel 2012, la cui conoscenza è di fondamentale importanza per la misura di sezioni d'urto di reazioni indotte da neutroni. L'esperimento n_TOF ha proprio lo scopo di misurare sezioni d'urto di reazioni indotte da neutroni, in particolare reazioni di fissione e cattura neutronica. Ad n_TOF si utilizza un fascio di protoni, accelerato a 20 GeV dal ProtoSincrotrone del CERN, per crearne due di neutroni, uno verticale e uno orizzontale, tramite spallazione nucleare indotta su un bersaglio di Piombo. Dalle analisi dei dati si deduce come questo studio possa essere maggiormente ottimizzato migliorando la funzione di risoluzione energetica dei neutroni, attraverso simulazioni Monte Carlo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I capodogli (Physeter macrocephalus) sono mammiferi marini con distribuzione cosmopolita; sono presenti anche nel Mar Mediterraneo, soprattutto nella zona occidentale del bacino. Per individuare la presenza di questi animali possono essere utilizzate differenti modalità. Questo studio è stato condotto tramite l’uso di metodi acustici passivi, in quanto i capodogli (P. macrocephalus) sono animali che emettono suoni. L’uso di metodi acustici ha alcuni vantaggi, infatti permette di individuare la presenza di un animale anche se si trova al di sotto della superficie dell’acqua, purché stia emettendo suoni. Le registrazioni possono essere effettuate indipendentemente dalle condizioni meteorologiche e per lunghi periodi di tempo, permettendo la continuità nella raccolta dei dati. Il lavoro di tesi è stato svolto nell’ambito di un Progetto di Ricerca de L’Oceanogràfic di Valencia. Le registrazioni sono state effettuate tramite lo strumento EAR (Ecological Acoustic Recorder) in due aree del Mar Balear, il Mar di Bamba e il Parco Nazionale di Cabrera, in differenti periodi, profondità e con diverse frequenze di campionamento (50 kHz e 5 kHz). I dati ottenuti sono stati analizzati tramite i programmi X-BAT (Extensible Bioacoustic Tool) e Adobe Audition 3.0 al fine di rilevare i pulsi emessi dai capodogli. Per entrambe le aree di studio i dati sono stati elaborati in modo da ottenere modelli giornalieri e stagionali delle ore positive e del numero di pulsi emessi. La presenza di P. macrocephalus è stata confermata in entrambe le aree di studio, e dal confronto delle analisi spettrali dei pulsi si può affermare che, nonostante le differenze, i pulsi registrati in entrambe le aree sono effettivamente emessi da capodogli. Il lavoro di Tesi permette di suggerire che per futuri studi sia applicata la frequenza di registrazione di 20 kHz utilizzando lo strumento SAMARUC, alla cui progettazione ha partecipato L’Oceanogràfic di Valencia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo del presente lavoro e' di stabilire se l'attivita' di una rete telefonica obbedisce a leggi statistiche e verificare se sono presenti delle fluttuazioni rispetto a queste ultime. Nella prima parte vengono illustrati alcuni modelli di Human Dynamics. Nella seconda parte viene descritta l'analisi dei dati soffermandosi su alcuni punti chiave che determinano il significato del risultato finale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obbiettivo di questa tesi è la produzione del prototipo di un sistema che sia in grado di ottenere dati da un insieme di sensori per poterli poi trasmettere all’utente, in modo che esso sia maggiormente cosciente del mondo che lo circonda. Affronteremo la sfida in uno scenario medico / di soccorso, dove un operatore si avvicinerà ad un gruppo di pazienti con l’intenzione di ottenere i parametri vitali di uno di essi. All'interno del documento saranno descritte le tecnologie sfruttate per la realizzazione del prototipo: Bluetooth e Bluetooth Smart, il sistema operativo Linux in esecuzione su un Raspberry Pi dotato di sensori, il sistema operativo Android in esecuzione su smartphone o tablet e iBeacon. Verranno poi analizzati i requisiti del sistema da realizzare. Infine verrà descritta l'implementazione utilizzata nel prototipo e analizzato il suo comportamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di IDCardOCR è quello di permettere all'utente di acquisire i dati di una persona in formato strutturato eseguendo una semplice foto del suo documento di identità. I dati salvati saranno così a disposizione dell’utente in formato digitale. Permette, a differenze di altre applicazioni, la creazione di una maschera personalizzata dove è l’utente a decidere i dati da digitalizzare. Il riconoscimento ottico dei caratteri è implementato dal tool Tesseract-OCR Obiettivo della tesi è quello di approfondire lo studio dei sistemi di OCR e del loro funzionamento in ambiente Android, applicare tecniche di ritaglio e elaborazione delle immagini, approfondimento delle piattaforma di sviluppo. La tesi è cosi strutturata. Il primo capitolo contiene l’introduzione al problema, una panoramica sulle applicazioni esistenti e i motivi che ci hanno spinto ha scegliere la piattaforma di sviluppo Andriod. Il capitolo due tratta delle progettazione dell’applicazione attraverso diagrammi UML e introduce l’architettura del sistema. Il capitolo tre è incentrato sulla parte di sviluppo, infine nel quarto capitolo, si conclude la tesi con i risultati dei test effettuati e i possibili sviluppi futuri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Scopo di questo lavoro di tesi è la caratterizzazione della risposta di una partita di dosimetri a termoluminescenza LiF:Mg,Cu,P (GR200A) a fasci X di energie e intensità variabili. In questo elaborato è presentata la teoria che sta alla base degli strumenti e delle procedure utilizzate, cioè nozioni basilari di radiologia e dosimetria assieme ad una breve trattazione riguardante i dosimetri a termoluminescenza; sono descritti gli strumenti e le attrezzature impiegate, quali il sistema di acquisizione To.Le.Do , il tubo a raggi X presente all'interno del Centro di Coordinamento delle Attività di Fisica Medica e la camera di confronto utilizzata per la taratura. Tramite l'analisi dei dati raccolti sono stati definiti, all'interno della partita, gruppi differenti di dosimetri con risposte uniformi entro livelli di confidenza differenti. Questi gruppi di dosimetri saranno utilizzati dall'U. O. di Fisica Sanitaria dell'Università di Bologna per scopi diversi, in particolare per valutazioni di dosi personali e valutazioni di dosi ambientali in locali sottoposti a controlli di radioprotezione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi viene seguito il lavoro di test delle schede ROD del layer 2 del Pixel Detector dell’ esperimento ATLAS, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Le schede ROD andranno a sostituire le precedenti schede SiROD nella catena di acquisizione dati dell’esperimento, procedendo dal nuovo strato IBL, e proseguendo con i tre layer del Pixel Detector, corroborando l’aggiornamento tecnologico e prestazionale necessario in vista dell’incremento di luminosità dell’esperimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partire dal 2010 la Commissione Europea ha compilato una lista di 20 materie prime ritenute “critiche” per importanza economica e rischio di approvvigionamento, per le quali è fondamentale la ricerca di possibili fonti alternative nel territorio europeo, poiché i maggiori produttori sono tutti paesi extra-europei. Dati questi presupposti, 20 campioni di fango marino, dragati nelle adiacenze di seamounts del Tirreno sud-orientale, sono stati analizzati per mezzo di XRF, al fine di trovare arricchimenti in elementi critici quali cromo, cobalto, gallio, niobio e alcuni elementi delle Terre Rare (lantanio, cerio, neodimio, samario, ittrio). I fanghi, talvolta con frazione sabbiosa più abbondante, sono stati dapprima divisi in base al colore in fanghi marroni e grigi e fanghi di colore bianco, rosso o arancio; presentano anche inclusi di diverso tipo, quali frammenti di conchiglie, noduli neri o bruno-arancio, croste bruno-nere o bruno-arancio. Dalle analisi chimiche è risultato che campioni più ricchi in CaO hanno un contenuto minore negli elementi ricercati, al contrario dei campioni ricchi in ossidi di Si, Ti, Al, Fe. Confrontando inoltre i campioni con i valori medi di composizione della crosta terrestre superiore, essi risultano più ricchi in REY e meno in Co, Cr, Ga, Nb, mentre sono sempre più arricchiti della composizione media dei sedimenti marini. Dalle analisi mineralogiche risulta che i fanghi contengono generalmente quarzo, calcite, feldspati in piccole quantità e fillosilicati. Infine, analisi XRD e SEM-EDS sui noduli neri hanno dimostrato che si tratta di todorokite, un ossido idrato di Mn, con tenori variabili di Na, K, Ca, Mg, dalla forma globosa con microstruttura interna fibroso-raggiata. Si ritiene quindi che fanghi ricchi in CaCO3, probabilmente bioderivato, non siano l’obiettivo più adatto per la ricerca di elementi critici, mentre potrebbero esserlo fanghi più ricchi in Si, Al, Fe, K, che hanno maggiori concentrazioni di tali elementi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio, inizialmente a livello teorico, del fenomeno della liquefazione tramite testi di letteratura e manuali tecnici. Da questi sono state acquisite le conoscenze basilari e necessarie per la stima del potenziale di liquefazione, che in seguito sono state applicate ad un caso reale. In questa seconda parte del lavoro sono stati elaborati i dati sperimentali ottenuti dalle indagini in sito, SPT ed CPT eseguite nel sito di Isola Serafini, ottenendo la stima del potenziale di liquefazione dei terreni. L’obiettivo generale è quello di confrontare e commentare le differenze tra i risultati ottenuti con le prove SPT e CPT. Le analisi sono state condotte considerando la sismicità dell’area e cercando di simulare la situazione presente durante l’evento sismico dell’Emilia risalente al 20 maggio 2012.