16 resultados para Sicurezza, E-voting, Processo, Elezioni

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La firma grafometrica è la sottoscrizione autografa eseguita con uno stilo elettronico su un dispositivo di acquisizione digitale e rappresenta ad oggi nel panorama delle tipologie di firma elettroniche una realtà a tutti gli effetti realizzabile. Questa tipologia di firma elettronica fonda il proprio valore sulle caratteristiche di universalità, unicità, permanenza e collezionabilità dei dati biometrici. Il successo della firma grafometrica è da ricercare invece nella sua stessa natura di firma, in quanto l'uomo da sempre è stato abituato ad eseguire il gesto dell'apposizione della propria firma autografa a dichiarazione della propria volontà. La profonda informatizzazione degli ultimi anni e la recente normativa hanno quindi permesso di trasferire la semplicità di questo gesto dal contesto analogico a quello digitale. I vantaggi derivanti dall'utilizzo della firma grafomentrica sono molteplici: innanzitutto il suo utilizzo comporta la completa dematerializzazione della gestione documentale aziendale con considerevoli risparmi dati dall'annullamento dei costi di stampa ed archiviazione dei documenti stessi, comporta inoltre una maggiore velocità di esecuzione dei processi documentali (dalla realizzazione dei documenti alla ricerca degli stessi) ed infine rende possibile l’ottenimento di documenti già predisposti per la conservazione a norma (con conseguente mantenimento della validità legale nel tempo). Come conseguenza di questa trasposizione dall'analogico al digitale si sono presentate tuttavia problematiche derivanti dalla natura stessa del nuovo contesto; la realizzazione di soluzioni di firma grafometrica richiede quindi una forte attenzione, al fine di evitare che i dati biometrici possano essere utilizzati impropriamente. Questa tesi è quindi volta a descrivere sia a livello normativo che tecnologico questa tipologia di firma elettronica avanzata. Nel corso della trattazione verranno inoltre fornite delle linee guida per la realizzazione di un corretto processo di apposizione della firma grafometrica a tutela della sicurezza dei dati biometrici dell'individuo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi muove da tematiche relative alla sicurezza IT e risulta dagli otto mesi di lavoro all’interno della funzione Technical Security di Telecom Italia Information Technology. Il compito primario di questa unità di business è ridurre il rischio informatico dei sistemi di Telecom Italia per mezzo dell’attuazione del processo di ICT Risk Management, che coinvolge l’intera organizzazione ed è stato oggetto di una riprogettazione nel corso del 2012. Per estendere tale processo a tutti i sistemi informatici, nello specifico a quelli caratterizzati da non conformità, all’inizio del 2013 è stato avviato il Programma Strutturato di Sicurezza, un aggregato di quattro progetti dalla durata triennale particolarmente articolato e complesso. La pianificazione di tale Programma ha visto coinvolto, tra gli altri, il team di cui ho fatto parte, che ha collaborato con Telecom Italia assolvendo alcune delle funzioni di supporto tipiche dei Project Management Office (PMO).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi quindi sono stati analizzati gli aspetti relativi alla legislazione sulla sicurezza, contemplando la nascita e l’evoluzione dell’assetto normativo italiano ed il recepimento delle disposizioni comunitarie. In particolare è stata approfondita la normativa riguardante i cantieri temporanei e/o mobili per l’attività edilizia. L’applicazione di quanto previsto in termini di legge è stato esaminato per un caso concreto di ristrutturazione edilizia. Sono stati esaminati gli aspetti critici del Piano Operativo di Sicurezza e proposte modifiche correttive per meglio adattarsi alla specificità del cantiere in oggetto, con lo scopo ultimo di diminuire l’esposizione al rischio ed aumentare la salvaguardia della sicurezza e salute dei lavoratori. Il caso di studio qui presentato evidenzia le difficoltà e le diffidenze che ancora permangono tra la norma e la sua applicazione in cantiere. Il vero anello debole della catena è spesso la mancanza della percezione della sicurezza come azione di tutela nei confronti dei lavoratori. Infatti, in mancanza di una adeguata sensibilizzazione, piuttosto che di una formazione “nozionistica”, il lavoratore continua a percepire la sicurezza come un’imposizione, come un qualcosa che ostacola il proprio lavoro. Non è certamente semplice cambiare un’impostazione che magari ha contrassegnato l’intero percorso lavorativo e la rinomata scomodità di alcuni DPI spesso porta ad un utilizzo saltuario degli stessi e solamente laddove viene realmente percepito un rischio per la propria incolumità. Ed è proprio per questo motivo che, nonostante i lavoratori siano perfettamente a conoscenza delle norme e delle prassi di buona tecnica da rispettare, continuino a lavorare con le stesse modalità che hanno appreso all’inizio dell’attività lavorativa. Il sondaggio somministrato ai lavoratori conferma questa realtà, suggerendo che la via della formazione, con particolare attenzione agli aspetti di sensibilizzazione, potrebbe diminuire concretamente il divario esistente tra la teoria (la norma) e la pratica. In ogni caso anche da questo studio è emerso in maniera incontrovertibile che la sicurezza sul lavoro, nonostante delle resistenze che solo il tempo, la costanza e le buone pratiche riusciranno a superare, resta comunque un processo storicamente ineluttabile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il testo documenta due aspetti importanti della certficazione del software DM come la conoscenza della normativa 93/42 e il processo di gestione del rischio. Entrambi fondamentali per valutare la sicurezza di tali dispositivi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo elaborato ha come obiettivo valutare l’efficacia di alcuni composti d’aroma, ossia componenti di oli essenziali la cui attività antimicrobica è nota in letteratura, nell’aumentare la sicurezza igienico-sanitaria di germogli di ravanello Daikon. In particolare sono stati utilizzati timolo e carvacrolo, costituenti di oli di piante tra cui timo e origano. Vista la grande espansione nel mercato alimentare di semi germogliati pronti all’uso, matrice veicolante numerosi casi di tossinfezione alimentare, sono state effettuate prove per valutare il rischio di sviluppo di Listeria. Si è lavorato simulando un processo casalingo, facendo germinare i semi in acqua addizionata o meno di diverse concentrazioni dei due terpeni fenolici. I semi utilizzati venivano precedentemente inoculati con Listeria innocua, utilizzata come surrogato del patogeno Listeria monocytogenes. Il ricambio dell’acqua di ammollo avveniva ogni 24 ore, e dopo 6/24/32/48 ore venivano prelevate quantità note di semi e acqua, al fine di valutarne il contenuto in L. innocua, carica microbica totale ed enterobatteri. La prima prova, che ha previsto l’uso di timolo come unico composto antimicrobico, ha mostrato una riduzione di un ciclo logaritmico di L. innocua ed enterobatteri nei semi, mentre nell’acqua essi erano presenti solo dopo 24 e 48 ore. Risultati analoghi sono stati ottenuti utilizzando solo carvacrolo. Infine è stato testato l’eventuale effetto sinergico di timolo e carvacrolo, che però non ha dato differenze particolari rispetto a campioni trattati coi singoli composti. I risultati ottenuti hanno evidenziato l’elevato rischio microbiologico associato ai semi germogliati con produzione domestica, poiché le condizioni adottate favoriscono lo sviluppo di specie patogene. L’utilizzo dei composti di aroma, se pure in grado di ridurre sia le cinetiche di crescita che la quantità di Listeria, non è tuttavia in grado di controllare in maniera significativa il rischio associato a tali prodotti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Direttiva 2000/53/CE sui veicoli fuori uso (VFU) stabilisce, entro il 2015, l’obiettivo di reimpiegare e riciclare almeno l’85% in peso del VFU e di reimpiegare e recuperare almeno il 95% in peso del VFU. Sebbene la media europea superi entrambi i target, nel 2019 l’Italia ha raggiunto l’84.2% sia per reimpiego e riciclo che per reimpiego e recupero, non essendo utilizzato il recupero energetico. Obiettivo di questa tesi, realizzata in collaborazione con un impianto di frantumazione, è stato quello di studiare nuove metodologie di gestione dei VFU in modo da diminuire la produzione di car fluff, smaltito in discarica, e incrementare i tassi di riciclo. Nello specifico, è stato chiesto a due autodemolitori di selezionare un campione di 10 VFU da sottoporre a messa in sicurezza e demolizione secondo step precisi di promozione al riciclaggio, compresa la separazione di sedili e cruscotti. Una volta eseguiti i test di frantumazione su pacchi auto, sedili e cruscotti, sono state effettuate analisi merceologiche e chimico-fisiche su alcuni flussi in uscita e sono stati calcolati i tassi di reimpiego, riciclo e smaltimento. Per entrambi i campioni è stato raggiunto l’obiettivo di reimpiego e riciclo, superando di circa un punto percentuale i valori del 2019. Il fluff ottenuto dalla frantumazione dei sedili non rispetta i parametri per poter essere classificato come CSS-combustibile; uno sviluppo futuro potrebbe essere quello di diminuire la concentrazione di cloro, antimonio, nichel e rame, per potere permettere di recuperare tale frazione e aumentare i target di riciclo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato descrive il lavoro svolto durante l’attività di tesi volta allo sbottigliamento di uno specifico step di una linea produttiva di additivi per plastiche. In una prima fase del progetto è stato studiato il processo di riferimento, con un focus particolare sulla sezione d’interesse. Sono state approfondite le modalità di conduzione dell’impianto, sono state individuate le criticità e i bad actors della linea ed è stata effettuata un’analisi dei trend e dei dati tramite l’uso di tools informatici come TrendMiner, Pi Vision e MiniTab. Il tutto è stato consolidato con la consultazione quotidiana del DCS. In questo modo sono state individuate le fasi limitanti del collo di bottiglia. In un secondo stadio sono state proposte modifiche tecnologiche volte all’ottimizzazione delle fasi critiche individuate. In questo è stato fondamentale il confronto con fornitori di strumentazione ed apparecchiature, process safety engineers, nonché l’implementazione di prove su piccola e grande scala per la valutazione della fattibilità tecnica di alcune proposte. Infine, sono state valutate due soluzioni di sbottigliamento. È stato realizzato uno studio di fattibilità economica con un’accuratezza del 30% e, insieme a valutazioni di carattere tecnico, è stata proposta l’alternativa migliore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Al fine di mitigare gli impatti ambientali legati alla produzione energetica, lo sviluppo di tecnologie per l’utilizzo di carburanti carbon-free risulta essere essenziale. Si confida che la sostituzione di combustibili convenzionali con sorgenti di energia rinnovabili e bio-combustibili possa ridurre le emissioni di gas serra. Tuttavia, l’intermittenza della maggior parte delle sorgenti di energia rinnovabile comporta problemi di stoccaggio dell’energia. Pertanto, risulta necessaria l’introduzione di opportuni vettori energetici quali l’idrogeno. Nonostante l’elevata reattività dell’idrogeno, gli elevati costi per raggiungere standard di sicurezza opportuni nella fase di trasporto e stoccaggio limitano il suo uso estensivo. Per tale motivo, sono state vagliate sostanze alternative, quali l’ammoniaca, caratterizzate da processi produttivi collaudati oltreché di facile stoccaggio e trasporto. Considerando i processi produttivi di entrambe le sostanze, la possibile presenza di metano ha suggerito lo studio di miscele ternarie costituite da metano, idrogeno e ammoniaca. Sulla base di queste premesse, il presente lavoro di tesi è stato incentrato sull’analisi cinetica e sulla valutazione dei principali parametri di sicurezza di alcune miscele gassose in presenza di aria e aria arricchita. Tale analisi ha permesso una valutazione preliminare della sostenibilità delle miscele ternarie in esame al variare delle condizioni operative. Infatti, sono state quantificate le prestazioni ambientali e gli standard di sicurezza al fine di confrontare la sostenibilità e la convenienza delle alternative di processo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il sistema logistico rappresenta una variabile fondamentale nel contesto organizzativo: se efficiente e ben strutturato può rivelarsi un vantaggio competitivo per le organizzazioni. Nel presente elaborato viene posta l’attenzione proprio su un particolare ambito del sistema logistico, ossia quello della logistica interna. L’obiettivo di questa tesi, svolta a margine di un tirocinio in Marchesini Group, azienda del bolognese leader nella fornitura di sistemi automatici per il packaging farmaceutico e cosmetico, è stato quello di ottimizzare i processi di gestione delle scorte e di picking di due categorie specifiche di prodotti: gli utensili, gestiti dal reparto attrezzeria ed i DPI, gestiti dal reparto sicurezza. Dopo una fase iniziale di osservazione diretta sul campo, finalizzata rilevare le principali criticità dei processi, lo studio si è concentrato sull'identificazione degli articoli principalmente consumati dai reparti e sulla definizione del loro consumo medio. In funzione delle esigenze dei diversi settori coinvolti, sono state, per entrambi i reparti, avanzate delle proposte di soluzione che riguardano sia l'introduzione di un nuovo modello di gestione delle scorte, accompagnato da un nuovo sistema di monitoraggio delle giacenze, che la riorganizzazione del flusso informativo relativo alla gestione degli ordini. Oltre che sul flusso informativo, il focus è stato posto anche sul flusso fisico degli articoli, con l’obiettivo di eliminare gli sprechi legati alle movimentazioni degli operatori tra i reparti. A tale scopo, dopo aver analizzato l'attuale processo di picking, è stata avanzata una proposta di soluzione che prevede l'introduzione di alcuni punti di prelievo direttamente all’interno dei reparti produttivi, appositamente collocati e dimensionati per minimizzare gli spostamenti degli operatori. Nella parte finale dell’elaborato vengono trattate le soluzioni proposte dal punto di vista economico e ne vengono illustrati i possibili sviluppi futuri.