894 resultados para sistema di gestione, OHSAS, sicurezza sul lavoro
Resumo:
La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.
Resumo:
La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.
Resumo:
Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.
Resumo:
In questa tesi si propone un progetto software per il controllo automatico delle pressioni in apparato volumetrico, o apparato Sievert, dedicato allo studio dell'assorbimento e desorbimento di idrogeno nei metalli. Si introduce la fisica che regola la formazione degli idruri metallici, e i parametri di studio importanti per lo sviluppo di un sistema energetico basato sull'idrogeno. Particolare attenzione viene data alla misura di cinetica, la percentuale in peso di idrogeno assorbito/desorbito in funzione del tempo. Nel capitolo 2 si mostra il principio di funzionamento di un apparato Sievert e la realizzazione hardware dell'apparato: si compone di una serie di volumi calibrati, separati da valvole, a temperatura costante, tra cui la camera porta-campioni . La pressione al loro interno viene variata immettendo o aspirando idrogeno. Nel capitolo 3 è sviluppata la procedura di controllo software tramite LabVIEW, che si impone di impostare una pressione intermedia su un volume parziale, conoscendo la pressione finale, a volumi collegati, alla quale studiare il campione. Questo modo di lavoro permette di non agire direttamente sul campione con le immissioni e le aspirazioni di idrogeno. Il programma è stato provato con misure per materiali dalla cinetica molto veloce come il palladio(Pd). I risultati, nel capitolo 4, mostrano che il programma è in grado di controllare efficacemente le variazioni di pressioni e la misura di cinetica.
Resumo:
Il presente lavoro di tesi ha avuto come obiettivo la valutazione della qualità dei suoli in oliveti siciliani in relazione a differenti metodi di gestione agronomica. In particolare, quello che si è inteso valutare sono stati gli effetti di sistemi di produzione agricola quali l’agricoltura convenzionale e l’agricoltura biologica sulle caratteristiche chimiche, fisiche e biologiche dei suoli. La qualità dei suoli è stata valutata integrando alle analisi chimico fisiche anche un metodo biologico basato sui microartropodi (QBS-ar). Il metodo è fondato sul concetto che maggiore è la qualità del suolo, maggiore è il numero di gruppi sistematici di microartropodi che presentano adattamenti alla vita ipogea. I nostri risultati evidenziano come l’agricoltura biologica possa diventare impattante tanto quanto l’agricoltura convenzionale, dal punto di vista della conservazione della fertilità dei suoli e della biodiversità, nel momento in cui viene a mancare una gestione che tenga conto delle caratteristiche intrinseche di un agroecosistema. Si è visto come un degrado della struttura fisica, che porti alla perdità di porosità, si possa ripercuotere negativamente sulla comunità dei microartropodi. Alcuni gruppi sistematici sembra possano essere più sensibili di altri a stress indotti dalla compattazione dei suoli, in particolare nel nostro studio questi gruppi sistematici risultano essere: Proturi, Ditteri (larve), Opilionidi, Diplopodi e Sinfili. Riguardo all’indicatore di qualità biologica del suolo QBS-ar, uno dei limiti che emerge nell’assegnazione della classe di qualità è rappresentato dal fatto che ogni valore dell’indice ottenuto non discrimina una classe in maniera univoca, ma i diversi Enti che utilizzano questo indicatore (ARPA, Università) hanno elaborato a livello interno i criteri per l’assegnazione della classe di qualità, rendendola un parametro non oggettivo per la valutazione della qualità dei suoli.
Resumo:
L'opera preliminarmente in una accurata analisi della configurazione e delle interrelazioni dei sistemi energetici presenti nello stabilimento produttivo Caviro Enomondo. Successivamente è svolto un approfondimento del quadro normativo relativo all’incentivazione delle fonti energetiche rinnovabili non fotovoltaiche e delle sue recenti evoluzioni, andando ad identificare tutte le possibili vie di sviluppo per impianti di produzione di biogas promosse a livello nazionale e che possono potenzialmente trovare applicazione nell’impianto in esame; questo studio è effettuato con particolare attenzione alla opportunità di effettuare un upgrading di tale impianto per realizzare ad una raffinazione totale o parziale del biogas a biometano. A seguito dell’identificazione della tipologia di prodotto e/o di processo che offre le migliori prospettive per una implementazione industriale e delle caratteristiche chimico-fisiche che questo deve rispecchiare, si prosegue quindi individuando lo schema impiantistico ottimale per adeguare l’attuale sistema di produzione al nuovo target. A seguire, approfondendo lo studio delle varie tecnologie disponibili ad oggi allo stato dell’arte, si identificano quelle maggiormente promettenti, mettendone in evidenza peculiarità positive e negative di ciascuna e giungendo alla identificazione della combinazione ottimale in termini di economicità, capacità produttiva, sicurezza ed impatto ambientale. Una volta individuate le caratteristiche di massima dell’impianto si procede ad un dimensionamento più accurato dello stesso andandone a valutare anche entità dei costi di investimento e di gestione. Attraverso l’instaurazione di contatti con ditte specializzate operanti nel settore industriale di riferimento, si giunge all’individuazione specifica dei modelli dei macchinari ed impianti richiesti. Il progetto si sviluppa successivamente andando a valutare le possibili modalità di utilizzo del prodotto finale che offrono maggiori prospettive di valorizzazione per l’azienda, identificando le varie soluzioni e gli interventi necessari per ciascuna di essa. La parte successiva dell’elaborato consiste in un confronto, in termini di valutazioni economiche, sull’opportunità di ognuna delle soluzioni prospettate, tenendo in considerazione i costi di investimento, di esercizio, i ricavi, e la componente incentivante. Si va infine a concludere il progetto proponendo una road-map per la realizzazione della soluzione che si evidenzia come la più promettente, con crono-programma degli interventi da eseguire, e aspettative di sviluppo a medio-lungo termine dell’investimento.
Resumo:
L'elaborato consiste nella traduzione di un un dépliant informativo sul mercato dei farmaci biotecnologici in Germania estratto dal sito ufficiale del gruppo vfa.bio. La traduzione è stata svolta simulandone la commissione per le seguenti finalità: informare i destinatari italiani che operano nello stesso tipo di mercato sul lavoro del gruppo vfa.bio; attirare finanziamenti esteri; informare e sensibilizzare il destinatario sulle scelte da operare in politica sanitaria a livello europeo per un miglior sviluppo di questo settore.
Resumo:
L'obiettivo di questo lavoro di tesi consiste nel progettare, realizzare e testare due collimatori multi-slit da applicare ad un sistema tomografico a raggi X con geometria cone-beam, caratterizzato da un voltaggio massimo di 320 kV. I collimatori che verranno realizzati sono un pre-collimatore e un post-collimatore entrambi multi-slit. Il fine ultimo è quello di riuscire ad avere un sistema di collimazione che permetta attraverso due sole tomografie di ottenere la ricostruzione dell'intero campione. L'abbattimento del tempo necessario per eseguire l'analisi costituisce il target su cui si basa questa tesi. Successivamente sulle immagini prodotte mediante questo nuovo sistema di collimazione saranno condotte delle specifiche analisi e i risultati saranno confrontati con quelli ottenuti mediante un sistema di collimazione a singola fenditura, anch'esso progettato in questa tesi e appositamente realizzato.
Resumo:
L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.
Resumo:
La tesi mira ad affrontare le problematiche relative al potenziamento e all'adeguamento migliorativo di alcune sezioni dell’esistente impianto di trattamento finale della frazione organica dei rifiuti solidi urbani, sito nel Comune di Salerno. Si è analizzata, in prima istanza, la gestione dei rifiuti in Campania negli ultimi anni: dall'inizio dell’emergenza negli anni ’90, fino ai giorni odierni con la stesura del “Piano Regionale per la Gestione dei rifiuti Solidi Urbani”. Si è posto, poi, l’accento sul modello che caratterizza la città di Salerno: una corretta gestione integrata dei rifiuti, contraddistinta da una raccolta “porta a porta” spinta e dalla realizzazione di un moderno impianto di compostaggio e produzione di biogas. Si è descritto l’impianto nella sua interezza, andando ad analizzare le singole sezioni che lo contraddistinguono: durante il periodo di funzionamento, dall'apertura dell’impianto, si sono riscontrate alcune criticità, che si è ritenuto di affrontare al fine di migliorarne l’efficienza. Si è elaborato, così, un progetto di potenziamento ed adeguamento migliorativo di alcune sezioni. In particolare, si è cercato di determinare quale fosse il sistema di depurazione dei reflui più adatto a questo tipo di realtà e si proceduto, quindi, al dimensionamento delle varie sezioni del sistema depurativo scelto. Si è ritenuto utile effettuare, anche, un confronto economico con il sistema attualmente in uso, che consiste nella depurazione dei liquami presso impianti terzi.
Resumo:
Il lavoro presentato di seguito è volto al miglioramento delle prestazioni dell'apparato per la Tecar terapia prodotto da EME.srl. Tale apparato presenta, allo stato attuale, un sistema basato principalmente su circuiti a componenti attivi operanti in regione lineare che producono una oscillazione a 455kHz, la amplificano e infine la adattano alle caratteristiche richieste per tale apparato. Ampiezza dell'oscillazione e corrente sul carico (paziente) vengono controllate mediante un doppio sistema di retroazione: uno analogico e uno basato su microcontrollore. Entrambi i sistemi lavorano sui valori medi di tensione e corrente. Lo scopo di tale elaborato è quello di migliorare tale apparato rendendo possibile il controllo di nuovi parametri, come la frequenza di oscillazione cosa non possibile nell'attuale implementazione. Si valuterà, nell'ambito dell'attività di tesi, se mantenere l'idea costruttiva originale in cui si aveva un oscillatore autonomo con una cascata di amplificazione a efficienza non elevatissima, retroazionato analogicamente e un controllo mediante uC, oppure passare ad una nuova architettura totalmente gestita da uC sfruttando topologie utilizzate in altri macchinari di EME.srl con l'aggiunta di soluzioni tratte dal mondo delle energie rinnovabili. Per lo studio di tale apparato verrà effettuata inoltre una caratterizzazione sperimentale del corpo umano utilizzando la mano di un soggetto volontario per avere un carico campione realistico e cercando ulteriori riscontri in letteratura.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
Il presente lavoro di tesi, nell’ambito della simulazione della prestazione di endoreattori a propellente solido, è volto all’indagine di particolari metodologie che permettano di considerare la presenza di inclusioni d’aria nel grano. In particolare saranno presentate procedure di gestione della triangolazione, che nel codice utilizzato rappresenta la superficie di combustione, in modo che essa possa ricalcare la superficie del difetto una volta pervenuta nell’area interessata da quest’ultimo. Infine si mostreranno risultati di simulazioni relative a motorizzazioni complete e a porzioni di queste in maniera da evidenziare effetti sulla balistica, dinamiche d’interazione fra più cavità vicine e variazione sul normale tempo di esposizione delle protezioni termiche ai gas caldi. Le conclusioni saranno tratte in relazione al modello balistico utilizzato.
Resumo:
Questa tesi si prefigge l’obiettivo di analizzare alcuni aspetti critici della sicurezza in ambito cloud. In particolare, i problemi legati alla privacy, dai termini di utilizzo alla sicurezza dei dati personali più o meno sensibili. L’aumento esponenziale di dati memorizzati nei sistemi di cloud storage (es. Dropbox, Amazon S3) pone il problema della sensibilità dei dati su un piano tutt'altro che banale, dovuto anche a non ben chiare politiche di utilizzo dei dati, sia in termini di cessione degli stessi a società di terze parti, sia per quanto riguarda le responsabilità legali. Questa tesi cerca di approfondire ed esaminare le mancanze più preoccupanti degli stessi. Oltre ad analizzare le principali criticità e i punti deboli dei servizi cloud, l’obiettivo di questo lavoro sarà quello di fare chiarezza sui passi e le infrastrutture che alcune aziende (es. Amazon) hanno implementato per avvicinarsi all’idea di 'safeness' nel cloud. Infine, l’ultimo obiettivo posto sarà l’individuazione di criteri per la valutazione/misura del grado di fiducia che l’utente può porre in questo contesto, distinguendo diversi criteri per classi di utenti. La tesi è strutturata in 4 capitoli: nel primo sarà effettuata una tassonomia dei problemi presenti nei sistemi cloud. Verranno presentati anche alcuni avvenimenti della storia recente, in cui queste problematiche sono affiorate. Nel secondo capitolo saranno trattate le strategie di 'safeness' adottate da alcune aziende, in ambito cloud. Inoltre, saranno presentate alcune possibili soluzioni, dal punto di vista architetturale. Si vedrà come il ruolo dell'utente sarà di estrema importanza. Il terzo capitolo sarà incentrato sulla ricerca di strumenti e metodi di valutazione che un utente, o gruppo di utenti, può utilizzare nei confronti di questi sistemi. Infine, il quarto capitolo conterrà alcune considerazioni conlusive sul lavoro svolto e sui possibili sviluppi di questa tesi.
Resumo:
Uno dei più importanti problemi irrisolti nel settore ceramico è il trasporto dell’atomizzato che è attualmente trasportato mediante nastri trasportatori che prelevano il materiale dal basso all’uscita dell’atomizzatore per poi coprire lunghe distanze, attraversando l'ambiente di lavoro fino ai silos di stoccaggio. Questo tipo di trasporto seppur basato su una tecnologia affidabile produce polveri sottili, causando inquinamento nell’ambiente di lavoro e generando rischi per la salute dei lavoratori (silicosi). Questa tesi si prefigge di descrivere questo innovativo sistema di trasporto pneumatico per l’industria ceramica e di gettare alcune basi per risolvere il problema del deterioramento del materiale sia dal punto di vista granulometrico sia dal punto di visto igrometrico dovuto a problemi relativi alla linea di trasporto. Questo approccio, basato sul controllo di parametri fluidodinamici e termoigrometrici, è stato possibile grazie allo studio del trasporto pneumatico su un impianto di prova e all’utilizzo di un software di simulazione (TPSimWin) basato su studi precedenti riguardo al trasporto di un flusso bifase gas-solido.