999 resultados para Piano Operativo di Sicurezza
Resumo:
Nel 2011 si sono registrati in Italia 205.638 incidenti stradali con lesioni a persone. Il numero dei morti (entro il 30° giorno) è stato di 3.860, quello dei feriti ammonta a 292.019.Rispetto all’obiettivo fissato dall’Unione Europea nel Libro Bianco del 2001, che prevedeva la riduzione della mortalità del 50% entro il 2010, benché sia vicina a questo traguardo, l’Italia non ha ancora raggiunto tale livello (Figura I.1). Sulle strade urbane si sono verificati 157.023 incidenti, con 213.001 feriti e 1.744 morti. Sulle Autostrade gli incidenti sono stati 11.007, con 18.515 feriti e 338 decessi. Sulle altre strade extraurbane, ad esclusione delle Autostrade, si sono verificati 37.608 incidenti, con 65.503 feriti e 1.778 morti. L’indice di mortalità mostra che gli incidenti più gravi avvengono sulle strade extraurbane (escluse le autostrade), dove si registrano 4,7 decessi ogni 100 incidenti. Gli incidenti sulle strade urbane sono meno gravi, con 1,1 morti ogni 100 incidenti. Sulle Autostrade tale indice è pari a 3,1. L’indice di mortalità si mantiene superiore alla media giornaliera (1,9 decessi ogni 100 incidenti) per tutto l’arco di tempo che va dalle 21 alle 7 del mattino, raggiungendo il valore massimo intorno alle 5 del mattino (6,0 decessi ogni 100 incidenti). La domenica è il giorno nel quale si registra il livello più elevato dell’indice di mortalità (2,8 morti per 100 incidenti). In 7 casi su 10 (69,7%) le vittime sono i conducenti di veicoli, nel 15,3% i passeggeri trasportati e nel 15,1% i pedoni. La categoria di veicolo più coinvolta in incidente stradale è quella delle autovetture(66,1%), seguono motocicli (14,0%), i ciclomotori (5,4%) e le biciclette (4,5%).
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.
Resumo:
La tesi tratta dell'importanza dei controlli di qualità e di sicurezza elettrica che devono essere effettuati per garantire l'integrità nel corso degli anni delle apparecchiature elettromedicali. In particolare ho studiato il funzionamento, i principi fisici e i limiti del pulsossimetro, il dispositivo medico in grado di misurare indirettamente la saturazione dell'ossigeno nel sangue.
Resumo:
La tesi inizia indagando il trend degli incidenti con fuoriuscita stradale avvenuti negli ultimi dieci anni andando in seguito a verificare uno dei molteplici aspetti che caratterizzano le barriere di sicurezza, dispositivi installati al fine di ridurre gli effetti delle fuoriuscite. In particolare ci si e concentrati sulla variazione della lunghezza di infissione del montante delle barriere che in terreni differenti da quelli in cui si eseguono i crash-test possono dare risultati risultati differenti in termini di deformazioni della barriera in caso di urto.
Resumo:
In questa tesi si esamineranno alcune possibili vulnerabilità dei sistemi di riconoscimento di impronte digitali e si tenterà di migliorare la loro sicurezza nei confronti di una tipologia specifica di attacco che utilizza impronte digitali "artificiali" per permettere ad un criminale di utilizzare il documento di un complice. È stata infatti recentemente dimostrata la possibilità di inserire in un documento elettronico caratteristiche biometriche che lo rendono utilizzabile da due diverse persone. Questa problematica di sicurezza è alla base dell’attacco che verrà analizzato in questa tesi e per il quale si cercheranno contromisure efficaci.
Resumo:
In Scrittori classici italiani di economia politica. Milano, 1805. 22 cm. [v. 47] Parte moderna, v. 40, p. [7]-202.
Resumo:
L’elaborato di tesi è stato redatto durante un’esperienza formativa presso la Parker Hannifin Manufacturing – Divisione Calzoni di Anzola dell’Emilia (BO). Il lavoro della tesi ha avuto per oggetto l’analisi di sicurezza e l’analisi dei guasti di un banco di assemblaggio e collaudo per motori oleodinamici a pistoni radiali. Il lavoro si è articolato in più fasi: una prima fase volta all’analisi funzionale (meccanica, idraulica, elettrica ed elettronica) dell’apparecchiatura, la fase successiva è stata dedicata allo studio delle varie normative necessarie a redigere il rapporto di sicurezza. Si sono poi valutati ed analizzati tutti i requisiti di sicurezza dell’apparecchiatura (valutazione del rischio) al fine di redigere il fascicolo tecnico. Infine, si è svolta l’analisi dei guasti (FMEA) secondo il metodo adottato in azienda. Il primo ed il secondo capitolo introducono la finalità industriale ed una descrizione generica dell’apparecchiatura. Nel terzo capitolo vi è una descrizione accurata del sistema idraulico e delle sue possibili configurazioni; il quarto nasce invece per approcciarsi alle normative di sicurezza a cui si è fatto riferimento. Infine, il quinto ed il sesto capitolo contengono rispettivamente il fascicolo tecnico e l’analisi dei guasti relativa all'apparecchiatura industriale studiata.
Resumo:
Il problema del rumore derivante dai volumi di traffico sempre crescente richiede la ricerca di svariate soluzioni, tra cui l'installazione di barriere di sicurezza e antirumore, definite anche integrate. La tesi, svolta in collaborazione con Piacentini Ingegneri srl, dopo un primo inquadramento del problema dei livelli di rumore eccessivi e dei limiti imposti da normativa, descrive le possibili soluzioni trovate nel tempo e in corso di ricerca. Vengono dunque descritte nel dettaglio le barriere integrate, specialmente quelle trovate nei tratti autostradali di Genova e Milano nel corso del tirocinio svolto presso Piacentini Ingegneri srl. È stata eseguita una modellazione FEM delle barriere Integauto-s e diverse prove sperimentali sui new jersey e sulle opere di supporto alle barriere (pull-out, carotaggi, prove a trazione, ecc). Dai certificati delle prove si ricavano i parametri di resistenza degli elementi (barriera e cordoli di sostegno) grazie ai quali, in aggiunta alla documentazione originale fornita da Autostrade per l'Italia, si raggiunge il Livello di Conoscenza accurato, il massimo possibile: LC3. Ciò è indispensabile per rispettare la procedura per il rialzamento delle barriere integrate concordate tra le 2 società sopracitate. Quindi, si procede con le verifiche delle barriere e delle opere di supporto alle barriere (cordolo su terreno, cordolo con micropali o pali, cordolo su opera d'arte esistente, pile da ponte). L'intera tesi è finalizzata alla definizione delle altezze delle barriere integrate, in quanto per motivi di sicurezza erano state abbassate. I calcoli strutturali, la modellazione FEM e le prove condotte hanno portato alla conoscenza massima possibile delle seguenti barriere: Integauto-s, NJBP C1.2 Martellona, e NJBP Ecotecnica (trovate nei tratti autostradali oggetto di rialzamento).
Resumo:
La struttura di un ospedale è notevolmente complessa nella sua organizzazione e conduzione, ed è per di più sollecitata a continue trasformazioni di carattere tecnologico ed organizzativo. Pertanto è essenziale, in una struttura sanitaria, il ruolo svolto dall’Ingegneria Clinica, che è quello dell’applicazione dei metodi e delle competenze specifiche proprie dell’ingegneria all’organizzazione, alla gestione e all’uso sicuro ed appropriato della strumentazione biomedica. Il seguente elaborato tratta le verifiche di sicurezza delle apparecchiature elettromedicali (EM) con una particolare attenzione agli aspetti normativi che le contraddistinguono e al ruolo dell’ingegnere clinico. Parlare di sicurezza per le tecnologie biomediche, significa garantire l’utilizzo delle stesse in assenza di rischi per l’utilizzatore e per il paziente, perciò il concetto di rischio è analizzato accuratamente. Oltre alla manutenzione correttiva è compito dell’ingegnere clinico programmare strategie di manutenzione preventiva per ottimizzare la durata fisiologica degli apparecchi EM e garantirne la qualità delle prestazioni erogate a lungo termine. L’utilizzo o il semplice invecchiamento di una qualsiasi apparecchiatura ne provoca infatti l’usura dei materiali e la deriva delle caratteristiche, aumentando la probabilità di guasto ed avaria. Pertanto la definizione di procedure di verifica elettrica periodica diventa fondamentale per l’individuazione di gran parte di quelle situazioni di compromissione della sicurezza che sono causa di danni e incidenti. Il loro scopo è quello di accertarsi che un’apparecchiatura abbia mantenuto nel tempo le caratteristiche di sicurezza dichiarate dal produttore e certificate dalla marcatura di conformità CE. Per completare l’iter di verifica di sicurezza e definirne il livello minimo accettabile è essenziale eseguire, oltre alle verifiche elettriche, le verifiche funzionali per valutare l’efficacia delle singole funzioni e prestazioni.
Resumo:
La Tesi tratta della modellazione e dell'analisi di ponti ad arco in muratura. In particolare è stato studiato il caso del vecchio ponte di Bagno di Piano, sito al km 14 della S.P. 18 "Palludese" in comune di Sala Bolognese in Provincia di Bologna. L’obiettivo della Tesi di Laurea è duplice, nel senso che da un lato si cerca di risalire alle probabili cause del crollo e, dall’altra si intende mettere a punto un quadro operativo per l’analisi strutturale di ponti ad arco in muratura.
Resumo:
Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità e una sostanziale disomogeneità prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità di ottimizzare l'allocazione delle unità operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.