934 resultados para Sistemi di collaudo, Termografia
Resumo:
Con il seguente elaborato si vuole evidenziare il percorso seguito per progettare e realizzare una macchina automatica adibita all’applicazione del sigillo di anti effrazione sulle diverse confezioni di farmaci presenti nel mercato farmaceutico. Obiettivo dunque del lavoro che viene presentato è quello di esplicitare e motivare le diverse scelte fatte in campo progettuale, grazie alle quali si è giunti alla realizzazione vera e propria della macchina in tutte le sue componenti e alla vendita di quest’ultima ad una casa farmaceutica del torinese. L’elaborato è così suddiviso: nella prima parte verrà descritta l’azienda demandante del progetto, la sua attività ed il suo campo di ricerca. Seguirà poi la descrizione dell’operazione per cui la macchina è stata concepita, i requisiti minimi di produttività che quest’ultima deve avere, e il campo di utilizzo. Nella seconda parte verranno presentati i vari gruppi che compongono la macchina, esplicitando la loro funzione, gli studi e le scelte fatte per la loro realizzazione, portando foto e disegni CAD dei componenti. Verranno poi descritti gli accorgimenti per la corretta installazione della macchina ed in fine verranno descritte le operazioni di collaudo effettuate sulla macchina, quali SAT (Site Acceptance Tests - Collaudo del sistema presso l’Utilizzatore) e FAT (Factory Acceptance Tests - Collaudo del sistema presso il costruttore)
Resumo:
Questo elaborato nasce da uno stage presso lo stabilimento Bonfiglioli Trasmital S.p.A. di Forlì, un’azienda manifatturiera specializzata nella produzione, costruzione e distribuzione di motoriduttori di velocità, sistemi di azionamento e motoriduttori epicicloidali applicati nel campo industriale, dell’automazione, delle macchine movimento terra e nell’ambito delle energie alternative. Il progetto ha lo scopo di aumentare la disponibilità di un impianto di tempra ad induzione. La scelta di tale impianto quale oggetto dell’attività, proviene da un’analisi delle ore di disponibilità perse per inefficienza, nell’anno 2012, in tutto il reparto di lavorazione meccanica dello stabilimento produttivo di Forlì e dall’analisi dell’OEE (Overall equipment effectiveness), indicatore principale per stabilire l’efficienza di un impianto. Analizzando la natura delle perdite del macchinario, tipicamente guasti, micro fermate e setup, si è deciso di applicare le tecniche di TPM e dello SMED: il TPM (Total Productive Maintenance) persegue l’obiettivo di migliorare la produttività degli impianti e la loro efficacia, grazie alla riduzione delle cause di perdita ricercando il miglioramento continuo del processo di produzione e della qualità, mentre lo SMED (Single-Minute Exchange of Die) è una metodologia volta alla riduzione dei tempi di cambio produzione; la grande innovazione di tale teoria risiede nella possibilità di ridurre fortemente i tempi impiegati per effettuare un’operazione di setup con un solo digit ossia in un lasso di tempo inferiore a dieci minuti.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
Lo studio presentato in questa sede concerne applicazioni di saldatura LASER caratterizzate da aspetti di non-convenzionalità ed è costituito da tre filoni principali. Nel primo ambito di intervento è stata valutata la possibilità di effettuare saldature per fusione, con LASER ad emissione continua, su pannelli Aluminum Foam Sandwich e su tubi riempiti in schiuma di alluminio. Lo studio ha messo in evidenza numerose linee operative riguardanti le problematiche relative alla saldatura delle pelli esterne dei componenti ed ha dimostrato la fattibilità relativa ad un approccio di giunzione LASER integrato (saldatura seguita da un post trattamento termico) per la realizzazione della giunzione completa di particolari tubolari riempiti in schiuma con ripristino della struttura cellulare all’interfaccia di giunzione. Il secondo ambito di intervento è caratterizzato dall’applicazione di una sorgente LASER di bassissima potenza, operante in regime ad impulsi corti, nella saldatura di acciaio ad elevato contenuto di carbonio. Lo studio ha messo in evidenza come questo tipo di sorgente, solitamente applicata per lavorazioni di ablazione e marcatura, possa essere applicata anche alla saldatura di spessori sub-millimetrici. In questa fase è stato messo in evidenza il ruolo dei parametri di lavoro sulla conformazione del giunto ed è stata definita l’area di fattibilità del processo. Lo studio è stato completato investigando la possibilità di applicare un trattamento LASER dopo saldatura per addolcire le eventuali zone indurite. In merito all’ultimo ambito di intervento l’attività di studio si è focalizzata sull’utilizzo di sorgenti ad elevata densità di potenza (60 MW/cm^2) nella saldatura a profonda penetrazione di acciai da costruzione. L’attività sperimentale e di analisi dei risultati è stata condotta mediante tecniche di Design of Experiment per la valutazione del ruolo preciso di tutti i parametri di processo e numerose considerazioni relative alla formazione di cricche a caldo sono state suggerite.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
Il monitoraggio dei rilasci può essere indoor o outdoor; l’attenzione del presente lavoro è rivolta a sistemi di monitoraggio di gas infiammabili e/o tossici in ambienti esterni di stabilimenti onshore. L’efficacia dei sistemi di Gas Detection è profondamente influenzata dalla disposizione dei sensori nelle aree di rischio. Esistono codici e standard che forniscono informazioni molto dettagliate per la progettazione dei sistemi di Fire Detection e linee guida per la scelta, l’installazione ed il posizionamento ottimale dei sensori di incendio. La stessa affermazione non si può fare per i sistemi di Gas Detection, nonostante dall’individuazione tempestiva di un rilascio dipendano anche le successive azioni antincendio. I primi tentativi di sviluppare linee guida per il posizionamento dei sensori di gas sono stati effettuati per le applicazioni off-shore, dove l’elevato livello di congestione e il valore delle apparecchiature utilizzate richiedono un efficiente sistema di monitoraggio dei rilasci. Per quanto riguarda gli impianti on-shore, i criteri di posizionamento dei rilevatori di gas non sono ufficialmente ed univocamente definiti: il layout dei gas detectors viene in genere stabilito seguendo criteri di sicurezza interni alle compagnie affiancati da norme di “buona tecnica” e regole empiriche. Infatti, nonostante sia impossibile garantire l’individuazione di ogni rilascio, vi sono linee guida che propongono strategie di posizionamento dei gas detectors in grado di massimizzare la probabilità di successo del sistema di monitoraggio. Il presente lavoro è finalizzato alla verifica del corretto posizionamento dei gas detectors installati presso l’impianto pilota SF2 dello stabilimento Basell Poliolefine Italia di Ferrara.
Analisi e riprogettazione del processo di ict risk management: un caso applicativo in Telecom Italia
Resumo:
Questo lavoro di tesi muove da tematiche relative alla sicurezza IT e risulta dagli otto mesi di lavoro all’interno della funzione Technical Security di Telecom Italia Information Technology. Il compito primario di questa unità di business è ridurre il rischio informatico dei sistemi di Telecom Italia per mezzo dell’attuazione del processo di ICT Risk Management, che coinvolge l’intera organizzazione ed è stato oggetto di una riprogettazione nel corso del 2012. Per estendere tale processo a tutti i sistemi informatici, nello specifico a quelli caratterizzati da non conformità, all’inizio del 2013 è stato avviato il Programma Strutturato di Sicurezza, un aggregato di quattro progetti dalla durata triennale particolarmente articolato e complesso. La pianificazione di tale Programma ha visto coinvolto, tra gli altri, il team di cui ho fatto parte, che ha collaborato con Telecom Italia assolvendo alcune delle funzioni di supporto tipiche dei Project Management Office (PMO).
Resumo:
Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.
Resumo:
A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.
Resumo:
Il lavoro di tesi è stato svolto presso Datalogic ADC, azienda attiva nel campo dell'automazione industriale. La divisione presso cui mi sono recato per 6 mesi ha sede a Pasadena (California, USA) e si occupa principalmente di sistemi di visione e riconoscimento oggetti, con particolare applicazione al settore della grande distribuzione. L'azienda ha in catalogo diversi prodotti finalizzati ad automatizzare e velocizzare il processo di pagamento alle casse da parte dei clienti. In questo contesto, al mio arrivo, era necessario sviluppare un software che permettesse di riconoscere i comuni carrelli per la spesa quando sono inquadrati dall'alto, con posizione verticale della camera. Mi sono quindi occupato di sviluppare ed implementare un algoritmo che permetta di riconoscere i carrelli della spesa sotto ben precise ipotesi e dati iniziali. Come sarà spiegato più dettagliatamente in seguito, è necessario sia individuare la posizione del carrello sia il suo orientamento, al fine di ottenere in quale direzione si stia muovendo. Inoltre, per i diversi impieghi che si sono pensati per il software in oggetto, è necessario che l'algoritmo funzioni sia con carrelli vuoti, sia con carrelli pieni, anche parzialmente. In aggiunta a ciò il programma deve essere in grado di gestire immagini in cui siano presenti più di un carrello, identificando correttamente ciascuno di essi. Nel Capitolo 1 è data una più specifica introduzione al problema e all'approccio utilizzato per risolverlo. Il Capitolo 2 illustra nel dettaglio l'algoritmo utilizzato. Il Capitolo 3 mostra i risultati sperimentali ottenuti e il procedimento seguito per l'analisi degli stessi. Infine il Capitolo 4 espone alcuni accorgimenti che sono stati apportati all'algoritmo iniziale per cercare di velocizzarlo in vista di un possibile impiego, distinguendo i cambiamenti che introducono un leggero degrado delle prestazioni da quelli che non lo implicano. Il Capitolo 5 conclude sinteticamente questa trattazione ricordando i risultati ottenuti.
Resumo:
Il presente lavoro è volto allo studio di soluzioni di rinforzo strutturale di edifici storici in muratura mediante materiali compositi innovativi a matrice inorganica FRCM (Fiber Reinforced Cementitious Matrix). E' stato effettuato un confronto tra due sistemi di rinforzo con compositi SRG (Steel Reinforced Grout) in fibre d'acciaio ad altissima resistenza, nell'ottica di un progetto di miglioramento sismico del teatro Pavarotti di Modena, in particolare della parete di fondo retrostante il palcoscenico. Ipotizzati alcuni meccanismi di collaso della parete, la vulnerabilità sismica della stessa, nei confronti di ciascun meccanismo, è stata valutata attraverso l'analisi cinematica lineare. Successivamente per ogni meccanismo è stato studiato un sistema di rinforzo SRG al fine di incrementare la capacità sismica della parete e il moltiplicatore di collasso.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
Il sistema ferroviario ha sempre ricoperto un ruolo rilevante nel nostro Paese sia per il trasporto di persone, sia per il trasporto di merci: risulta, quindi, essenziale per il commercio e per il turismo. A differenza della strada in cui i veicoli circolano “a vista”, una ferrovia richiede che i sistemi di distanziamento dei treni siano indipendenti dalla visibilità dei veicoli, poiché gli spazi di frenatura sono solitamente molto maggiori della distanza di visibilità stessa. Per questo motivo i sistemi di segnalamento e sicurezza ricoprono un ruolo di primo piano. Nel tempo sono stati effettuati ingenti investimenti che hanno portato all'impiego di nuove tecnologie le quali hanno permesso la progettazione di sistemi safety critical contenenti componenti informatici hardware e software. La caratteristica principale di tali sistemi è la proprietà di non arrecare danno alla vita umana o all'ambiente: tale proprietà viene comunemente associata al termine anglosassone safety per distinguerla dall’accezione di "protezione da violazioni all'integrità del sistema" che il termine "sicurezza" usualmente assume. Lo sviluppo economico e tecnologico a cui abbiamo assistito nell’ultimo ventennio ha inevitabilmente reso tali sistemi ancora più sofisticati e di conseguenza complessi, richiedendo allo stesso tempo requisiti e garanzie di buon funzionamento sempre più marcati ed articolati. È proprio a questi motivi che si devono gli studi su quella che viene definita la dependability dei sistemi di computazione, verso cui si concentrano e convogliano buona parte degli sforzi e delle risorse in fase di ricerca e progettazione. Il lavoro di tesi che segue è stato svolto in collaborazione con due grandi imprese del territorio nazionale: RFI (Reti Ferroviarie Italiane) e Sirti. Inizialmente abbiamo interagito con RFI per entrare nell’ambiente ferroviario ed assimilarne il lessico e i bisogni. All’interno di RFI è stato effettuato un tirocinio nel quale ci siamo occupati del “processo off-line” riguardante la gestione in sicurezza di una stazione; tale attività deve essere effettuata da RFI prima della messa in esercizio di una nuova stazione. Per far questo abbiamo dovuto utilizzare i programmi di preparazione dei dati messi a disposizione da Sirti. In un secondo momento abbiamo approfondito l’argomentazione della safety interfacciandoci con Sirti, una delle società che forniscono sistemi safety critical computerizzati per il controllo delle stazioni. In collaborazione con essa ci siamo addentrati nel loro sistema scoprendo le loro scelte implementative e come hanno raggiunto i loro obiettivi di safety. Infine, ci siamo occupati dell'inserimento nel sistema di una nuova funzionalità, per aumentarne l’affidabilità e la sicurezza, e delle problematiche relative all'impiego del componente che la realizza.