478 resultados para trattamento dati personali giuridici sensibili privacy tutela del lavoratore video sorveglianza


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nelle matrici ambientali sono spesso presenti xenoestrogeni, molecole sintetiche o di origine naturale ad attività estrogenica in grado di alterare il normale equilibrio ormonale di organismi esposti, incidendo negativamente su alcune funzioni vitali come la riproduzione ed il metabolismo. Diverse sostanze chimiche presenti in ambiente, tra cui alcune molecole ad attività estrogenica, sono anche potenziali composti genotossici, in grado, cioè, di interagire con il DNA ed esercitare effetti anche a lungo termine come l’insorgenza di tumori nei vertebrati, uomo compreso. L’obiettivo del presente lavoro di tesi è stato quello di mettere a punto ed utilizzare due saggi biologici, il saggio E-screen ed il test dei micronuclei, per valutare la presenza di xenoestrogeni e composti genotossici in campioni di acque prelevate prima e dopo i trattamenti di potabilizzazione, utilizzando cellule MCF-7 di adenocarcinoma mammario come modello sperimentale in vitro. Le indagini biologiche sono state condotte sulla base di una convenzione di ricerca con la Società acquedottistica Romagna Acque- Società delle fonti e hanno previsto tre campagne di monitoraggio. I campioni di acqua sperimentale, raccolti prima e dopo i trattamenti presso diversi impianti di potabilizzazione, sono stati preventivamente filtrati, estratti in fase solida, fatti evaporare sotto leggero flusso di azoto, ed infine, saggiati sulle cellule. Il test E-screen, di cui abbiamo dimostrato un elevato livello di sensibilità, ha permesso di escludere la presenza di composti ad attività estrogenica nei campioni esaminati. Allo stesso modo, i risultati del test dei micronuclei hanno dimostrato l’assenza di effetti genotossici, confermando la buona qualità delle acque analizzate. Nell’ambito delle attività di monitoraggio, le indagini biologiche risultano essenziali per la valutazione di una potenziale contaminazione ambientale, in quanto forniscono informazioni anche quando non sono state condotte analisi chimiche. Inoltre, anche quando le analisi chimiche siano state condotte, i test biologici informano della potenzialità tossica di una matrice causata eventualmente da sostanze non oggetto del saggio chimico. Infine, i test biologici permettono di identificare eventuali sinergie tra più contaminanti presenti nelle acque, affermandosi come test da condurre in maniera complementare ai saggi chimici. I test biologici come quelli impiegati nel lavoro di tesi sono molto sensibili ed informativi, ma necessitano della definizione di protocolli standardizzati per garantirne un’uniforme applicazione alle acque ad uso potabile, almeno a livello nazionale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questo studio è mirato ad analizzare ed ottimizzare il consumo dei reagenti solidi impiegati da uno stabilimento di termovalorizzazione di rifiuti solidi urbani e speciali (Silea S.p.A, presso Valmadrera (LC)), per abbattere le correnti acide trattate nelle due linee fumi multistadio. Dopo aver scelto quale delle due linee prendere come riferimento, per poi riportare i risultati ottenuti anche sull’altra con opportune correzioni, il lavoro è stato condotto in diverse fasi, e affiancato da un costante confronto diretto con gli ingegneri e i tecnici dello stabilimento. Una volta preso atto delle normali condizioni di funzionamento dell’impianto, si è proceduto all’esecuzione di test, mirati a quantificare l’efficienza di rimozione dell’acido cloridrico, da parte del bicarbonato di sodio e dell’innovativo sorbente dolomitico, brevettato sotto il nome: Depurcal® MG. I test sono stati suddivisi in giornate differenti in base al tipo di reattivo da analizzare (e quindi lo stadio) e programmati in modo che permettessero di correlare la conversione dell’HCl alla portata di reagente solido introdotto. Una volta raccolti i dati, essi sono stati elaborati e filtrati in base a criteri oggettivi, per poi essere analizzati con senso critico, fornendo un quadro completo sulla reale potenzialità dell’impianto. Attraverso l’utilizzo di un opportuno modello è stato possibile caratterizzarlo e individuare la migliore condizione economico-operativa per ognuno dei possibili scenari individuati.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ogni giorno, l'utente di smartphon e tablet, spesso senza rendersene conto, condivide, tramite varie applicazioni, un'enorme quantità di informazioni. Negli attuali sistemi operativi, l'assenza di meccanismi utili a garantire adeguatamente l'utente, ha spinto questo lavoro di ricerca verso lo sviluppo di un inedito framework.È stato necessario uno studio approfondito dello stato dell'arte di soluzioni con gli stessi obiettivi. Sono stati esaminati sia modelli teorici che pratici, con l'analisi accurata del relativo codice. Il lavoro, in stretto contatto con i colleghi dell'Università Centrale della Florida e la condivisione delle conoscenze con gli stessi, ha portato ad importanti risultati. Questo lavoro ha prodotto un framework personalizzato per gestire la privacy nelle applicazioni mobili che, nello specifico, è stato sviluppato per Android OS e necessita dei permessi di root per poter realizzare il suo funzionamento. Il framework in questione sfrutta le funzionalità offerte dal Xposed Framework, con il risultato di implementare modifiche al sistema operativo, senza dover cambiare il codice di Android o delle applicazioni che eseguono su quest’ultimo. Il framework sviluppato controlla l’accesso da parte delle varie applicazioni in esecuzione verso le informazioni sensibili dell’utente e stima l’importanza che queste informazioni hanno per l’utente medesimo. Le informazioni raccolte dal framework sulle preferenze e sulle valutazioni dell’utente vengono usate per costruire un modello decisionale che viene sfruttato da un algoritmo di machine-learning per migliorare l’interazione del sistema con l’utente e prevedere quelle che possono essere le decisioni dell'utente stesso, circa la propria privacy. Questo lavoro di tesi realizza gli obbiettivi sopra citati e pone un'attenzione particolare nel limitare la pervasività del sistema per la gestione della privacy, nella quotidiana esperienza dell'utente con i dispositivi mobili.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La tesi si occupa dell'uso di più tecniche fotogrammetriche e di strumenti GIS nel recupero digitale e nell'integrazione di una molteplicità di dati storici, opportunamente georeferenziati, inerenti l'area del Centro Cadore, ai fini anche della valorizzazione turistico-culturale del territorio. Un ampio spazio viene dato alla caratterizzazione del territorio e delle fonti - cartografiche, fotografiche e testuali - che sono state recuperate ed organizzate in archivio. Le applicazioni fotogrammetriche comprendono la generazione di ortofoto digitali a scala territoriale da immagini storiche e modelli 3D close-range ottenuti con tecniche SfM.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'argomento principale di questo elaborato è l'analisi delle proprietà termiche del G.H.A .(Golden Hard Anodizing), ovvero un particolare trattamento di trasformazione superficiale dell'alluminio. Nello specifico è stato studiato tramite confronto con la conducibilità termica, la diffusività e l’emissività termica. Per ottenere tali dati sono state svolte prove sperimentali in modo da avere un chiara visione dell'entità di tali proprietà e metterle a confronto con quelle dell'alluminio base e dell'alluminio anodizzato.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’obbiettivo che si pone questo lavoro è quello di combinare in un unico impianto due tecnologie utilizzate per scopi differenti (impianto integrato): un impianto di climatizzazione geotermico a bassa entalpia di tipo open-loop ed un impianto di bonifica delle acque di falda di tipo Pump&Treat. Il sito selezionato per lo studio è ubicato in via Lombardia, nell’area industriale di Ozzano dell’Emilia (BO), ed è definito “Ex stabilimento Ot-Gal”: si tratta di una galvanotecnica con trattamento di metalli, dismessa alla fine degli anni ’90. Durante una precedente fase di caratterizzazione del sito condotta dalla ditta Geo-Net Srl, sono stati rilevati in falda dei superamenti delle CSC previste dal D.lgs. 152/2006 di alcuni contaminanti, in particolare Tricloroetilene (TCE) e 1.1-Dicloroetilene (1.1-DCE). Successivamente, nel 2010-2011, Geo-net Srl ha eseguito una parziale bonifica delle acque di falda attraverso l’utilizzo di un impianto Pump and Treat. Grazie a tutti i dati pregressi riguardanti i monitoraggi, le prove e i sondaggi, messi a disposizione per questo studio da Geo-Net Srl, è stato possibile eseguire una sperimentazione teorica, in forma di modellazione numerica di flusso e trasporto, dell’impianto integrato oggetto di studio. La sperimentazione è stata effettuata attraverso l’utilizzo di modelli numerici basati sul codice di calcolo MODFLOW e su codici ad esso comunemente associati, quali MODPATH e MT3DMS. L’analisi dei risultati ottenuti ha permesso di valutare in modo accurato l’integrazione di queste due tecnologie combinate in unico impianto. In particolare, la bonifica all’interno del sito avviene dopo 15 dalla messa in attività. Sono stati anche confrontati i costi da sostenere per la realizzazione e l’esercizio dell’impianto integrato rispetto a quelli di un impianto tradizionale. Tale confronto ha mostrato che l’ammortamento dell’impianto integrato avviene in 13 anni e che i restanti 7 anni di esercizio producono un risparmio economico.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le epidemie tossinfettive dovute al consumo di prodotti vegetali freschi hanno subito negli ultimi anni un rilevante incremento a causa della crescente centralizzazione delle produzioni in prossimità di aree destinate alle produzioni animali, all’aumento dell’importazione e del trasporto di prodotti provenienti da grandi distanze, all’aumento del settore dei prodotti di IV gamma e all’incremento delle fasce di popolazione più sensibili ai principali patogeni degli alimenti. I dati recenti indicano che, negli USA, le tossinfezioni associate al consumo di vegetali freschi sono passati dallo 0.7% del totale negli anni ‘70, al 6% negli anni ’90, al 13% nei primo anni 2000, fino a rappresentare nel 2014 il 46% delle tossinfezioni complessive. Il consumo di pomodori freschi è stato implicato in numerose tossinfezioni, anche di ampie dimensioni, in diverse aree del globo. Oltre alle salmonellosi, i pomodori costituiscono importanti veicoli per la trasmissione per altri patogeni quali Listeria monocytogenes, Escherichia coli VTEC e Yersinia enterocolitica. Gli studi sulla composizione quali-quantitativa dei microrganismi presenti sui pomodori al momento della loro commercializzazione sono pochissimi. Per queste ragioni, nel mio elaborato mi sono occupata di valutare alcuni parametri microbiologici campionando la superficie di pomodori a grappolo di diversa tipologia, prelevati dai banchi della distribuzione, venduti sfusi o preconfezionati. Le analisi condotte erano mirate alla ricerca della carica batterica totale, di Escherichia coli, enterobatteriacee, stafilococchi, muffe e lieviti. Dai risultati ottenuti si evince che non esistono effettivamente delle differenze significative sulle caratteristiche microbiologiche dei pomodori in base al tipo di confezionamento. Inoltre si può anche osservare come le cariche microbiche individuate siano relativamente contenute e paragonabili a quelle riportate in letteratura per prodotti analoghi considerati a basso rischio.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il Paclitaxel (PTX) è un potente agente chemioterapico approvato per il trattamento di numerosi tumori solidi. Tuttavia, la scarsa solubilità in acqua e l’elevata tossicità causano gravi effetti collaterali che pregiudicano severamente la qualità di vita dei pazienti, già compromessa dalla patologia. Il presente lavoro di tesi ha riguardato la preparazione mediante nano-precipitazione di micelle di un pro-farmaco del PTX (PTX2S), caricate con feoforbide a (PheoA), una molecola fotosensibile che illuminata ad una specifica lunghezza d’onda genera specie reattive all’ossigeno (ROS) e ossigeno di singoletto (1O2) capaci di uccidere le cellule tumorali. Le nanomicelle sono state caratterizzate in termini di stabilità in condizioni fisiologiche, capacità di loading e di rilascio del farmaco e sviluppo di ROS a seguito di irraggiamento con luce bianca. Inoltre, test preliminari in vitro eseguiti su cellule staminali mesenchimali umane (MSC) hanno dimostrato che le nanomicelle sono efficacemente internalizzate dalle cellule senza comprometterne la vitalità e la morfologia. Tali dati preliminari dimostrano che le MSC possono essere quindi utilizzate come vettori selettivi delle nanomicelle qui descritte.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Contarina è un’azienda che si occupa della gestione dei rifiuti in 49 Comuni della Provincia di Treviso. L’esperienza di tirocinio svoltasi presso tale realtà aziendale, ha avuto come obiettivo l’analisi della tracciabilità dei principali rifiuti trattati dagli impianti di Contarina, al fine di comprendere l’efficienza del sistema di gestione integrata del rifiuto urbano. Dopo un breve inquadramento normativo, si è proceduto a descrivere il modello di gestione messo in atto dall’azienda, analizzandone anche le modalità operative. Oltre al calcolo della percentuale di materiale raccolto in maniera differenziata, secondo differenti metodologie e all’analisi quantitativa e qualitativa dei rifiuti prodotti, per stimare l’effettivo quantitativo di materiale avviato a recupero, sono stati elaborati dei bilanci di massa per le seguenti filiere di rifiuto: vetro, plastica, metalli, carta e cartone, frazioni biodegradabili e indifferenziato. Tali categorie di rifiuto infatti, costituiscono la maggior parte dei rifiuti raccolti e trattati da Contarina. L’analisi dei dati ha rivelato una buona efficienza di captazione del sistema di raccolta differenziata ed anche un’elevata qualità merceologica del rifiuto gestito. In merito all’efficienza di trattamento e alla quantità del materiale avviato a recupero, alcune filiere si sono dimostrate più virtuose di altre, come ad esempio quella relativa al rifiuto cartaceo, dove il 99.3% del materiale trattato è diventato materia prima seconda. L’elaborato ha messo in luce inoltre come il quantitativo di materiale recuperabile venga influenzato, oltre che dalla qualità e tipologia di rifiuto trattato, anche dalla modalità di conferimento e dall’efficienza separativa degli impianti. Complessivamente, attraverso il trattamento delle principali categorie di rifiuto raccolte tramite il sistema porta a porta e gestite all’interno degli impianti Contarina, l’azienda trevigiana ha avviato a recupero, più dell’85% del materiale selezionato.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La quantificazione non invasiva delle caratteristiche microstrutturali del cervello, utilizzando la diffusion MRI (dMRI), è diventato un campo sempre più interessante e complesso negli ultimi due decenni. Attualmente la dMRI è l’unica tecnica che permette di sondare le proprietà diffusive dell’acqua, in vivo, grazie alla quale è possibile inferire informazioni su scala mesoscopica, scala in cui si manifestano le prime alterazioni di malattie neurodegenerative, da tale tipo di dettaglio è potenzialmente possibile sviluppare dei biomarcatori specifici per le fasi iniziali di malattie neurodegenerative. L’evoluzione hardware degli scanner clinici, hanno permesso lo sviluppo di modelli di dMRI avanzati basati su acquisizioni multi shell, i quali permettono di ovviare alle limitazioni della Diffusion Tensor Imaging, in particolare tali modelli permettono una migliore ricostruzione trattografica dei fasci di sostanza bianca, grazie ad un’accurata stima della Orientation Distribution Function e la stima quantitativa di parametri che hanno permesso di raggiungere una miglior comprensione della microstruttura della sostanza bianca e delle sue eventuali deviazioni dalla norma. L’identificazione di biomarcatori sensibili alle prime alterazioni microstrutturali delle malattie neurodegenerative è uno degli obbiettivi principali di tali modelli, in quanto consentirebbero una diagnosi precoce e di conseguenza un trattamento terapeutico tempestivo prima di una significante perdità cellulare. La trattazione è suddivisa in una prima parte di descrizione delle nozioni fisiche di base della dMRI, dell’imaging del tensore di diffusione e le relative limitazioni, ed in una seconda parte dove sono analizzati tre modelli avanzati di dMRI: Diffusion Kurtosis Imaging, Neurite Orientation Dispersion and Density Imaging e Multi Shell Multi Tissue Constrained Spherical Deconvolution. L'obiettivo della trattazione è quello di offrire una panoramica sulle potenzialità di tali modelli.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’applicazione degli algoritmi di Intelligenza Artificiale (AI) al settore dell’imaging medico potrebbe apportare numerosi miglioramenti alla qualità delle cure erogate ai pazienti. Tuttavia, per poterla mettere a frutto si devono ancora superare alcuni limiti legati alla necessità di grandi quantità di immagini acquisite su pazienti reali, utili nell’addestramento degli stessi algoritmi. Il principale limite è costituito dalle norme che tutelano la privacy di dati sensibili, tra cui sono incluse le immagini mediche. La generazione di grandi dataset di immagini sintetiche, ottenute con algoritmi di Deep Learning (DL), sembra essere la soluzione a questi problemi.