800 resultados para sistema di gestione, OHSAS, sicurezza sul lavoro
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
Il presente lavoro di tesi, nell’ambito della simulazione della prestazione di endoreattori a propellente solido, è volto all’indagine di particolari metodologie che permettano di considerare la presenza di inclusioni d’aria nel grano. In particolare saranno presentate procedure di gestione della triangolazione, che nel codice utilizzato rappresenta la superficie di combustione, in modo che essa possa ricalcare la superficie del difetto una volta pervenuta nell’area interessata da quest’ultimo. Infine si mostreranno risultati di simulazioni relative a motorizzazioni complete e a porzioni di queste in maniera da evidenziare effetti sulla balistica, dinamiche d’interazione fra più cavità vicine e variazione sul normale tempo di esposizione delle protezioni termiche ai gas caldi. Le conclusioni saranno tratte in relazione al modello balistico utilizzato.
Resumo:
Questa tesi si prefigge l’obiettivo di analizzare alcuni aspetti critici della sicurezza in ambito cloud. In particolare, i problemi legati alla privacy, dai termini di utilizzo alla sicurezza dei dati personali più o meno sensibili. L’aumento esponenziale di dati memorizzati nei sistemi di cloud storage (es. Dropbox, Amazon S3) pone il problema della sensibilità dei dati su un piano tutt'altro che banale, dovuto anche a non ben chiare politiche di utilizzo dei dati, sia in termini di cessione degli stessi a società di terze parti, sia per quanto riguarda le responsabilità legali. Questa tesi cerca di approfondire ed esaminare le mancanze più preoccupanti degli stessi. Oltre ad analizzare le principali criticità e i punti deboli dei servizi cloud, l’obiettivo di questo lavoro sarà quello di fare chiarezza sui passi e le infrastrutture che alcune aziende (es. Amazon) hanno implementato per avvicinarsi all’idea di 'safeness' nel cloud. Infine, l’ultimo obiettivo posto sarà l’individuazione di criteri per la valutazione/misura del grado di fiducia che l’utente può porre in questo contesto, distinguendo diversi criteri per classi di utenti. La tesi è strutturata in 4 capitoli: nel primo sarà effettuata una tassonomia dei problemi presenti nei sistemi cloud. Verranno presentati anche alcuni avvenimenti della storia recente, in cui queste problematiche sono affiorate. Nel secondo capitolo saranno trattate le strategie di 'safeness' adottate da alcune aziende, in ambito cloud. Inoltre, saranno presentate alcune possibili soluzioni, dal punto di vista architetturale. Si vedrà come il ruolo dell'utente sarà di estrema importanza. Il terzo capitolo sarà incentrato sulla ricerca di strumenti e metodi di valutazione che un utente, o gruppo di utenti, può utilizzare nei confronti di questi sistemi. Infine, il quarto capitolo conterrà alcune considerazioni conlusive sul lavoro svolto e sui possibili sviluppi di questa tesi.
Resumo:
Uno dei più importanti problemi irrisolti nel settore ceramico è il trasporto dell’atomizzato che è attualmente trasportato mediante nastri trasportatori che prelevano il materiale dal basso all’uscita dell’atomizzatore per poi coprire lunghe distanze, attraversando l'ambiente di lavoro fino ai silos di stoccaggio. Questo tipo di trasporto seppur basato su una tecnologia affidabile produce polveri sottili, causando inquinamento nell’ambiente di lavoro e generando rischi per la salute dei lavoratori (silicosi). Questa tesi si prefigge di descrivere questo innovativo sistema di trasporto pneumatico per l’industria ceramica e di gettare alcune basi per risolvere il problema del deterioramento del materiale sia dal punto di vista granulometrico sia dal punto di visto igrometrico dovuto a problemi relativi alla linea di trasporto. Questo approccio, basato sul controllo di parametri fluidodinamici e termoigrometrici, è stato possibile grazie allo studio del trasporto pneumatico su un impianto di prova e all’utilizzo di un software di simulazione (TPSimWin) basato su studi precedenti riguardo al trasporto di un flusso bifase gas-solido.
Resumo:
Il documento illustra il lavoro di analisi dei requisiti, progettazione, implementazione e valutazione di un sistema per l’autenticazione degli utenti delle workstation della sede di Scienze del Dipartimento di Informatica — Scienza ed Ingegneria (DISI) che si integri al sistema di autenticazione d’Ateneo. Il sistema descritto è entrato in produzione il 24 settembre 2014 ed è tuttora operante. Il lavoro percorre le modalità di gestione degli account utente in uso presso il DISI e le nuove modalità di organizzazione del DSA d’Ateneo discutendo le motivazioni per cui le soluzioni standard non possono essere adottate nel caso esposto. Analizzato il processo di login dei sistemi Unix e le librerie coinvolte verrà esposto il nuovo progetto, le particolarità dello sviluppo delle nuove librerie PAM e di Name Service Switch e la loro modalità di funzionamento e configurazione all’interno del cluster Unix. In conclusione vengono presentate una serie di valutazioni che mostrano i vantaggi e il rispetto dei requisiti della nuova implementazione.
Resumo:
Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.
Resumo:
L’oggetto di studio della presente tesi è una macchina utensile ad altra produttività con tavola rotante (transfer) che presenta numerosi elementi di innovazione rispetto a versioni precedenti. In particolare è stata ottimizzata la scelta dei materiali che compongono i vari elementi della struttura, sono stati ripensati gli impianti di servizio e, infine, è stato reso possibile l’impiego di tecnologie di lavorazione che permettono una notevole riduzione del consumo elettrico. Il transfer è costituito da una stazione di carico/scarico e da numerose stazioni di lavoro equipaggiate con moduli a tre assi che permettono di eseguire le diverse operazioni da realizzare sul componente in lavorazione. Le unità a tre assi vengono impiegate per movimentare gli elettromandrini che mettendo in rotazione gli utensili permettono l’esecuzione delle diverse lavorazioni. L’attività svolta è stata suddivisa in diverse fasi: nella prima è stata realizzata un’analisi funzionale che ha permesso di valutare (i) la rigidezza dell’unità a tre assi che equipaggia ogni stazione di lavoro e (ii) l’errore di posizionamento indotto dal riscaldamento delle viti di manovra che permettono la movimentazione dei tre assi della macchina. Nella seconda fase sono state valutate le potenzialità della tecnologia Minimum Quantity Lubrication (MQL) come alternativa ecologica ed economica alla tradizionale tecnica di lubrorefrigerazione con emulsione. La tecnica MQL consiste nel nebulizzare nella zona di taglio un aerosol composto da aria e olio. In particolare è stato calibrato il sistema di generazione dell’aerosol stesso ed è stata indagata l’influenza dei diversi parametri di taglio sulla qualità della lavorazione. Infine è stata effettuata un’analisi economica che ha permesso di valutare il vantaggio economico in termini di potenza installata e consumo di energia elettrica del transfer in relazione ad una macchina utensile di pari taglia che presenta le soluzioni costruttive standard per questa tipologia di dispositivo.
Resumo:
La sinergia tra diverse aree scientifiche svolge oggi un ruolo preminente nella risoluzione di problematiche molto complesse: in ambito medico, un massiccio intervento delle scienze fisico-matematiche ha portato, grazie alla ricerca sulle proprietà subatomiche (NMR), sulla funzione elettromeccanica tissutale (pace-makers) e sulla biocompatibilità di materiali innovativi, ad un completo rinnovamento e miglioramento delle terapie tradizionali, delineando nuove strategie terapeutiche. In questo quadro di attiva collaborazione si colloca la ricerca in ambito biomeccanico cardiovascolare che, approfondendo la funzionalità del cuore e dei vasi in condizioni normali e patologiche, propone soluzioni terapeutiche alternative all'approccio farmacologico, impensabili fino a pochi anni fa. Uno di questi ambiti è l'insufficienza cardiaca: al ventricolo incapace di produrre l'energia necessaria alla perfusione ematica viene associato un sistema di pulsazione meccanica che riduce il carico durante l'eiezione ed aumenta la perfusione coronarica in diastole. Tuttavia, benché l'efficacia della contropulsazione intra-aortica sia riconosciuta da decenni, alcune problematiche rimangono irrisolte: l'inapplicabilità su pazienti aritmici, l'eccessiva sollecitazione meccanica in pazienti vasculopatici, la complessità e l'alto costo dell'apparecchiatura. Questo lavoro affronta la validazione e la caratterizzazione di una soluzione terapeutica alternativa, di tipo completamente passivo, il cui effetto non è basato sulla somministrazione di energia meccanica dall'esterno, attraverso la pulsazione, ma sull'adattamento di impedenza biomeccanica tra la sorgente elastica pulsatile (il ventricolo) ed il carico (l'aorta). Per verificare l'ipotesi funzionale è stato realizzato un sistema contrattile che simulasse diversi livelli di insufficienza ventricolare ed un sistema vascolare con resistenza idraulica ed elastanza variabili. Sono stati rilevati i parametri fisiologici (pressioni, flusso, potenza ed efficienza) nelle diverse condizioni di accoppiamento biomeccanico e si sono ripetuti i rilievi inserendo il dispositivo di contropulsazione passiva. La validazione sperimentale ha prodotto risultati coerenti con quanto atteso ed è stata indispensabile per l'ottenimento, da parte del Comitato Etico, dell'autorizzazione per la sperimentazione clinica del sistema in oggetto.
Resumo:
Lo scopo di questo lavoro di tesi è stato quello di studiare il comportamento di un fascio laser interagente con un risonatore ottico, grazie al quale il laser può essere stabilizzato agganciando la sua frequenza di missione ad uno dei modi della cavità. In sintesi la lunghezza d’onda del fascio è vincolata ad assumere valori multipli della lunghezza della cavità, dato che in questo modo si possono decisamente migliorare le caratteristiche spettrali di un laser tipico. La stabilizzazione, e il restringimento di riga del laser, vengono effettuati agganciando la sua frequenza sul modo trasverso fondamentale tramite un sistema di feedback. La cavità è però soggetta a sua volta a fluttuazioni di tipo termico e meccanico. Una variazione in lunghezza del risonatore comporta una variazione in frequenza dei modi. Le derive di frequenza dovute agli effetti termici si possono limitare utilizzando materiali con bassa dilatazione termica posti in ambienti la cui temperatura viene stabilizzata tramite un sistema di feedback. Per le vibrazioni, invece, il lavoro è più complicato: non essendo sufficiente mettere il sistema in ambienti isolati per attenuare le fluttuazioni, è stato recentemente proposto di studiare la posizione migliore dei sostegni affinché le fluttuazioni, e quindi le conseguenti variazioni in lunghezza della cavità, risultino minime. Per analizzare questo problema è stato utilizzato un software open-source per l’analisi agli elementi finiti, Salome-Meca, tramite il quale è stata riprodotta la geometria del un risonatore ottico a nostra disposizione, per simularne il comportamento sotto l’effetto del campo gravitazionale. Da qui si sono ottenuti i dati riguardo lo spostamento degli specchi della cavità in funzione della posizione del sostegno, dai quali si è riuscito a trovare il punto di posizionamento del supporto capace di ridurre lo spostamento di un ordine di grandezza.
Resumo:
L’odierno mercato concorrenziale ha portato le aziende a rinnovare il sistema produttivo, spostandosi da un approccio innovativo convergente, in cui le imprese erano le uniche detentrici del controllo dell’intero processo, fin dalla generazione di nuove idee e proposte di innovazione, ad un approccio aperto, denominato Open Innovation, che fa leva sul concetto di flusso libero e bidirezionale di idee e tecnologie tra l’azienda e l’ambiente esterno. È in questo contesto che è stata progettata in Carpigiani una piattaforma e-maintenance chiamata Teorema che, sfruttando un sistema di telemetria, consente di monitorare in tempo reale le macchine installate presso l’utente finale, acquisendo importanti informazioni sul reale utilizzo e sulle effettive funzionalità impiegate dal cliente. Grazie a tale gestione remota, allo stesso tempo è possibile garantire un’efficace operazione di diagnostica e prognostica atte a prevenire eventuali malfunzionamenti. Il presente elaborato fornisce un concreto metodo di utilizzo di tale piattaforma per il monitoraggio real time di macchine per gelato espresso, al fine di verificarne l’effettivo utilizzo da parte del cliente ed il corretto dimensionamento dell’impianto. Per mezzo della piattaforma Teorema è stato inoltre possibile eseguire un’indagine comparativa sui consumi energetici misurati in macchina, testando l’efficienza di funzionamento. Infine è stata eseguita un’analisi FMEA degli allarmi rilevati sul parco di macchine analizzate, per valutare l’affidabilità della macchina e dei suoi componenti.
Resumo:
Ai nostri giorni le aree costiere risultano particolarmente sensibili perché sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.
Resumo:
Oggi il mercato mondiale dell'anidride maleica (AM) è in continua espansione grazie ad un numero sempre crescente di applicazioni finali e sviluppo di nuove tecnologie industriali. La AM viene impiegata nella produzione di resine poliestere insature e resine alchidiche e nella produzione di chemicals a più alto valore aggiunto. Il processo di sintesi è tutt’ora basato sull'ossidazione selettiva del benzene e del n-butano. Con l’aumento delle emissione di gas serra, legate all’impiego di materie di origine fossile e la loro continua diminuzione, si stanno studiando nuovi processi basati su materie derivanti da fonti rinnovali. Tra i vari processi studiati vi è quello per la sintesi di AM, i quali utilizzano come molecola di furfurale, 5-idrossimetilfurfurale e 1-butanolo; tutte queste presentano però il problema di un costo superiore rispetto alle molecole tutt’ora usate. Ad oggi una delle molecole ottenibili da fonti rinnovabili avente un costo competitivo alle materie derivanti da fonti fossili è il bio-etanolo. Essendo nota la possibilità di trasformare dell’etanolo in composti a 4 atomi di carbonio (C4) come 1-butanolo (reazione di Guerbet) e in 1,3- butadiene (processo Lebedev) su ossidi misti Mg/Si e la loro trasformazioni in AM, è’ dunque possibile ipotizzare un processo operante in fase gas che accoppi entrambi i processi. Lo scopo di questo lavoro di tesi è stato quello di effettuare uno studio su sistemi catalitici mediante differenti approcci impiantistici. Il primo ha previsto l’impiego di un sistema detto “a cascata” nel quale è stato accoppiato il sistema misto a base di Mg/Si/O, per la trasformazione dell’etanolo a C4, e il pirofosfato di vanadile (VPP), per l’ossidazione selettiva di quest’ultimi in AM. Il secondo approccio ha previsto l’impiego di un unico sistema multifunzionale in grado di catalizzare tutti gli step necessari. In quest’ultimo caso, i sistemi studiati sono stati il Mg2P2O7 ed un sistema costituito da VPP DuPont sul quale è stato depositato MgO. I catalizzatori sono stati caratterizzati mediante diffrattometria a raggi X, spettroscopia Raman e analisi dell’area superficiale mediante metodo BET, mentre i test catalitici sono stati condotti su un impianto di laboratorio con un reattore assimilabile ad un modello di tipo PFR.
Resumo:
L’effetto dell’informatica e dell’automazione sulle procedure medico sanitarie si sta manifestando in maniera sempre più ampia, portando notevoli vantaggi per la salute e il benessere di tutti i pazienti e al tempo stesso ponendo sfide sempre più complesse alle istituzioni sanitarie e ai produttori di dispositivi medico-sanitari. Al di là dei meriti del singolo prodotto o tecnologia, esiste un fattore strategico che dovrebbe essere sempre considerato nel momento di progettare un software o un dispositivo da utilizzare in ambito sanitario (da parte dei produttori) o nel momento di pianificare l’acquisto di sistemi medicali o diagnostici complessi (da parte delle istituzioni sanitarie): l’aspetto dell’Integrazione, ovvero la capacità del sistema di inserirsi in maniera semplice, efficace e poco costosa in un Workflow (flusso di lavoro) completamente integrato. Nel primo capitolo di questo elaborato finale è stato fatto un quadro generale sull’organizzazione del flusso di lavoro in radiologia e sono stati trattati i vari standard di comunicazione e scambio dati in ambito clinico, in primis DICOM, HL7 e IHE. L’oggetto del secondo capitolo è l’organizzazione e gli obbiettivi del Dipartimento di Radiologia attuati dal Gruppo Villa Maria (GVM) e il confronto di questi ultimi con il contenuto del documento: ‘Linee guida per l’assicurazione di qualita` in teleradiologia ‘che è stata redatta dal Istituto Superiore di Sanita` destinata ad apportare, non solo ai medici radiologi ed ai TSRM ma anche agli altri professionisti della sanità coinvolti, gli elementi di informazione e di metodo per l’organizzazione della teleradiologia nel rispetto delle esigenze della deontologia medica, della sicurezza del paziente, compreso il consenso, anche per quanto riguarda la radioprotezione, la privacy e la qualità. Nel terzo capitolo sono elencati gli strumenti con cui il Dipartimento di radiologia intende perseguire i suoi obbiettivi. Il quarto capitolo tratta la mia esperienza presso una clinica esterna al GVM, in particolare la clinica Santo Stefano, di Porto Potenza Picena, dove sono stati fatti dei test volti a valutare i tempi di caricamento di esami di TAC e RMN sul cloud di GVM.