478 resultados para trattamento dati personali giuridici sensibili privacy tutela del lavoratore video sorveglianza


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il fenomeno dell’urbanizzazione ha fatto sì che crescesse il numero delle abitazioni a scapito delle aree verdi ma, in un’ottica di sostenibilità umana, la tutela degli ecosistemi naturali diventa un obiettivo imprescindibile. Le infrastrutture verdi nascono proprio con questo scopo: cercare soluzioni per fare non solo convivere ma collaborare la natura e l’uomo. Con piccoli accorgimenti come le coperture verdi, le pavimentazioni permeabili, i “rain garden” si sfruttano le caratteristiche degli elementi già presenti in natura per avere benefici sia per la qualità dell’aria, sia per la tutela da catastrofi come allagamenti. In questa trattazione vedremo nel dettaglio come queste infrastrutture possano giovare all’uomo economicamente e ecologicamente analizzando i possibili benefici derivanti del tetto verde dell’Università di Bologna.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il degrado della pietra è un processo che causa la perdita di parti importanti del patrimonio architettonico, per tale ragione è importante intervenire con restauri conservativi. Per il caso specifico della fase del consolidamento, attualmente l'interesse è tornato su prodotti inorganici, perchè più compatibili con la pietra. In particolare i trattamenti a base di idrossiapatite sembrano molto promettenti perchè conferiscono coesione alla pietra degradata, senza alterarne la porosità e la permeabilità naturali, aspetto che non si riscontra per altri tipi di consolidanti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La metodologia Life Cycle Assessment (LCA) è un metodo oggettivo di valutazione e quantificazione dei carichi energetici ed ambientali e degli impatti potenziali associati ad un processo o attività produttiva lungo l’intero ciclo di vita. Il lavoro presentato in questa tesi ha avuto come obiettivo l’analisi del ciclo di vita dell’impianto di trattamento della FORSU (la frazione organica di rifiuti solidi urbani) di Voltana di Lugo, in provincia di Ravenna. L’impianto attuale si basa sull'utilizzo accoppiato di digestione anaerobica a secco (sistema DRY) e compostaggio. Si è voluto inoltre effettuare il confronto fra questo scenario con quello antecedente al 2012, in cui era presente solamente il processo di compostaggio classico e con uno scenario di riferimento in cui si è ipotizzato che tutto il rifiuto trattato potesse essere smaltito in discarica. L’unità funzionale considerata è stata “le tonnellate di rifiuto trattate in un mese“, pari a 2750 t. L’analisi di tutti i carichi energetici ed ambientali dell’impianto di Voltana di Lugo è stata effettuata con l’ausilio di “GaBi 5”, un software di supporto specifico per gli studi di LCA. Dal confronto fra lo scenario attuale e quello precedente è emerso che la configurazione attuale dell’impianto ha delle performance ambientali migliori rispetto alla vecchia configurazione, attiva fino a Dicembre 2012, e tutte e due sono risultate nettamente migliori rispetto allo smaltimento in discarica. I processi che hanno influenzato maggiormente gli impatti sono stati: lo smaltimento del sovvallo in discarica e la cogenerazione, con produzione di energia elettrica da biogas. Il guadagno maggiore, per quanto riguarda lo scenario attuale rispetto a quello precedente, si è avuto proprio dal surplus di energia elettrica prodotta dal cogeneratore, altrimenti prelevata dal mix elettrico nazionale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi è finalizzata ad una preliminare fase di sperimentazione di un algoritmo che, a partire da dati di acustica, sia in grado di classificare le specie di pesce presenti in cale mono e plurispecifiche. I dati sono stati acquisiti nella fascia costiera della Sicilia meridionale, durante alcune campagne di ricerca effettuate tra il 2002 e il 2011, dall’IAMC – CNR di Capo Granitola. Sono stati registrati i valori delle variabili ambientali e biotiche tramite metodologia acustica e della composizione dei banchi di pesci catturati tramite cale sperimentali: acciughe, sardine, suri, altre specie pelagiche e pesci demersali. La metodologia proposta per la classificazione dei segnali acustici nasce dalla fusione di logica fuzzy e teorema di Bayes, per dar luogo ad un approccio modellistico consistente in un compilatore naïve Bayes operante in ambiente fuzzy. Nella fattispecie si è proceduto alla fase di training del classificatore, mediante un learning sample di percentuali delle categorie ittiche sopra menzionate, e ai dati di alcune delle osservazioni acustiche, biotiche e abiotiche, rilevate dall’echosurvey sugli stessi banchi. La validazione del classificatore è stata effettuata sul test set, ossia sui dati che non erano stati scelti per la fase di training. Per ciascuna cala, sono stati infine tracciati dei grafici di dispersione/correlazione dei gruppi ittici e le percentuali simulate. Come misura di corrispondenza dei dati sono stati considerati i valori di regressione R2 tra le percentuali reali e quelle calcolate dal classificatore fuzzy naïve Bayes. Questi, risultando molto alti (0,9134-0,99667), validavano il risultato del classificatore che discriminava con accuratezza le ecotracce provenienti dai banchi. L’applicabilità del classificatore va comunque testata e verificata oltre i limiti imposti da un lavoro di tesi; in particolare la fase di test va riferita a specie diverse, a condizioni ambientali al contorno differenti da quelle riscontrate e all’utilizzo di learning sample meno estesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel primo capitolo di questa tesi viene presentata una panoramica dei principali metodi di rivelazione degli esopianeti: il metodo della Velocità Radiale, il metodo Astrometrico, il metodo del Pulsar Timing, il metodo del Transito, il metodo del Microlensing ed infine il metodo del Direct Imaging che verrà approfondito nei capitoli successivi. Nel secondo capitolo vengono presentati i principi della diffrazione, viene mostrato come attenuare la luce stellare con l'uso del coronografo; vengono descritti i fenomeni di aberrazione della luce provocati dalla strumentazione e dagli effetti distorsivi dell'atmosfera che originano le cosiddette speckle; vengono poi presentate le moderne soluzioni tecniche come l'ottica attiva e adattiva, che hanno permesso un considerevole miglioramento della qualità delle osservazioni. Nel terzo capitolo sono illustrate le tecniche di Differential Imaging che permettono di rimuovere efficacemente le speckle e di migliorare il contrasto delle immagini. Nel quarto viene presentata una descrizione matematica della Principal Component Analysis (Analisi delle Componenti Principali), il metodo statistico utilizzato per la riduzione dei dati astronomici. Il quinto capitolo è dedicato a SPHERE, lo strumento progettato per il Very Large Telescope (VLT), in particolare viene descritto il suo spettrografo IFS con il quale sono stati ottenuti, nella fase di test, i dati analizzati nel lavoro di tesi. Nel sesto capitolo vengono mostrate le procedure di riduzione dati e l'applicazione dell'algoritmo di IDL LA_SVD che applica la Principal Component Analysis e ha permesso, analogamente ai metodi di Differenzial Imaging visti in precedenza, di rimuovere le speckle e migliorare il contrasto delle immagini. Nella parte conclusiva, vengono discussi i risultati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo che si pone questa tesi è quello di analizzare alcune soluzioni esistenti riguardo i problemi riguardanti privacy e sicurezza informatica. Nello specifico sarà illustrato il programma Tor, un sistema di comunicazione grazie al quale si garantisce l’anonimato in Internet. Sponsorizzato inizialmente dall’US Naval Research Laboratory, all’origine veniva utilizzato per poter effettuare comunicazioni militari criptate; è stato successivamente un progetto della Electronic Frontier Foundation ed ora è gestito da The Tor Project, un’associazione senza scopo di lucro che si occupa del relativo sviluppo. Le ricerche e gli sviluppi riguardanti questa tecnologia vengono tuttavia resi difficili da problemi di scalabilità e dalla difficoltà di riprodurre risultati affidabili. Nel corso della tesi saranno illustrati gli studi riguardanti il simulatore Shadow, un progetto Open Source gestito da The Tor Project, che permette la simulazione del protocollo Tor. I risultati ottenuti dai test effettuati sul simulatore, possono essere riapplicati in seguito alla rete reale Tor, poiché grazie a Shadow è possibile testare ed ottenere risultati attendibili circa il comportamento e la corretta esecuzione del software Tor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si svolge nell’ambito della ricerca del bosone di Higgs supersimmetrico all’esperimento CMS del Cern, sfruttando le collisioni protone-protone dell’acceleratore LHC. Il lavoro da me svolto riguarda lo studio della parametrizzazione dell’insieme dei dati che costituiscono il fondo dell’eventuale presenza di un segnale del bosone di Higgs nel modello supersimmetrico minimale. Ho eseguito dei fit al fondo aspettato tramite il package Root, utilizzando diverse funzioni per parametrizzarne analiticamente l’andamento. Nel lavoro di tesi mostro come tali funzioni approssimano i dati e ne discuto le loro caratteristiche e differenze.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

E’ previsto che l’emissione in atmosfera di anidride carbonica (CO2) da parte dell’uomo e la conseguente acidificazione delle acque dei mari provocherà effetti negativi di vasta portata sui processi biologici di diversi ecosistemi marini. L’acidificazione del mare può provocare effetti negativi su tutti gli stadi del ciclo vitale degli organismi marini, influenzandone la fisiologia, morfologia, comportamento ed alcune fasi della riproduzione e del reclutamento. Esistono poche informazioni riguardo gli effetti dell’acidificazione sulla riproduzione sessuale dei coralli. Questo studio ha lo scopo di quantificare la capacità riproduttiva di Astroides calycularis (scleractinia coloniale mediterranea azooxantellata) in colonie trapiantate lungo un gradiente naturale di pH, generato dalle emissioni di CO2 del cratere vulcanico sottomarino di Panarea (Isole Eolie). Le colonie sono state trapiantate in 4 siti, dal centro del cratere, dove si riscontra la condizione più acida (pH 7.40), alla periferia, caratterizzata da condizioni di pH normali (pH 8.07). La popolazione di A. calycularis di Panarea ha mostrato una sessualità mista a livello coloniale (polipi gonocorici in colonie ermafrodite), in contrapposizione alla condizione gonocorica riscontrata nella stessa specie studiata a Palinuro e a Punta de la Mona (Spagna). I risultati preliminari sembrerebbero mostrare un effetto negativo dell’acidificazione sullo sviluppo gonadico femminile della specie. L’ipotesi è che esso sia dovuto ad una riallocazione delle energie sui processi di calcificazione a danno dell’ovogenesi. La spermatogenesi risentirebbe meno degli effetti negativi dell’acidificazione nelle fasi di sviluppo interne all’ individuo, in quanto meno dispendiose da un punto di vista energetico rispetto alle fasi di ovogenesi. Gli spermatozoi potrebbero invece essere influenzati negativamente dall’ ambiente più acido una volta entrati in contatto con esso, con conseguenze sulla riuscita della fecondazione. Questo studio necessita di ulteriori dati e verrà completato con le analisi istologiche in corso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La diffusione di Internet negli ultimi anni e lo sviluppo sempre crescente nell'ambito delle reti di telecomunicazione, hanno portato oggi ad una vera e propria esplosione della diffusione di nuove tecnologie di trasmissione. Inizialmente il protocollo di trasporto dati, TCP, non era stato pensata per operare in scenari diversi da quello della rete fissa. Con l'introduzione di nuovi scenari, come quello wireless, wimax e satellitare, si è notato come le prestazioni peggiorino in questi ambienti. Proprio per questo, il protocollo TCP ha subito parecchie modifiche negli anni e sono state realizzate alternative atte a migliorare l'inefficienza del protocollo. Le modifiche, a cui il TCP è stato sottoposto, sono basate su alcuni criteri di valutazione e l'introduzione di meccanismi come il controllo del flusso o il controllo di congestione in modo da migliorare le performance in ambienti “ostili”. Molti ricercatori si sono concentrati nello studio e modifica di questi nuovi meccanismi cercando di adattare al meglio il TCP secondo diversi scenari di rete, trascurando così altri criteri un pò meno noti. Dopo aver introdotto lo scenario con la descrizione del protocollo TCP, andremo a descrivere e illustrare questi “nuovi criteri” presentando alcuni recenti studi effettuati, in seguito andremo a presentare un nuova versione del protocollo chiamata Early Warning TCP e nell'ultimo capitolo andremo a presentare delle conclusioni degli studi presentati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si è svolto in collaborazione con il Consiglio Nazionale delle Ricerche - Istituto di Ricerca per la Protezione Idrogeologica di Padova CNR IRPI. Questo elaborato è finalizzato allo studio dei dissesti per frana che coinvolgono le opere d’arte stradali della S.S. 52 Carnica nella zona del Passo della Morte, tra i comuni di Forni di Sotto e Ampezzo, in provincia di Udine. La presenza di un’arteria viaria di primaria importanza, qual è la strada statale 52 Carnica che collega le province di Udine e Belluno, ha reso necessario un accurato studio idrogeologico. Lo studio mira principalmente ad individuare una possibile relazione tra la sorgente sita all’interno della Galleria di S. Lorenzo S.S. 52 e la galleria drenante posta al di sotto di quest’ultima per permettere la progettazione di eventuali ulteriori opere di mitigazione del rischio da frana. Il lavoro è suddiviso in tre parti: la prima, introduttiva, include una caratterizzazione geografica, geologica e morfologica dell’area di studio. La seconda descrive l’opera in esame - la galleria di S. Lorenzo S.S. 52 Carnica - e le criticità derivanti dalla complessità dell’area. Infine, la terza, fondamentale, comprende un studio idrogeologico svolto raccogliendo sul campo i dati indispensabili alle ricerche. La metodologia è caratterizzata da un’analisi statistica basata sulla cross-correlazione tra i dati di precipitazione e quelli di portata in continuo della sorgente e della galleria drenante. Infine, a fronte dei dati ottenuti, si è ricavato un modello concettuale dei complessi fenomeni idrogeologici che si sviluppano nell’area di Passo della Morte.