894 resultados para sistema di gestione, OHSAS, sicurezza sul lavoro
Resumo:
Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.
Resumo:
L’obiettivo che si pone questa tesi è quello di analizzare alcune soluzioni esistenti riguardo i problemi riguardanti privacy e sicurezza informatica. Nello specifico sarà illustrato il programma Tor, un sistema di comunicazione grazie al quale si garantisce l’anonimato in Internet. Sponsorizzato inizialmente dall’US Naval Research Laboratory, all’origine veniva utilizzato per poter effettuare comunicazioni militari criptate; è stato successivamente un progetto della Electronic Frontier Foundation ed ora è gestito da The Tor Project, un’associazione senza scopo di lucro che si occupa del relativo sviluppo. Le ricerche e gli sviluppi riguardanti questa tecnologia vengono tuttavia resi difficili da problemi di scalabilità e dalla difficoltà di riprodurre risultati affidabili. Nel corso della tesi saranno illustrati gli studi riguardanti il simulatore Shadow, un progetto Open Source gestito da The Tor Project, che permette la simulazione del protocollo Tor. I risultati ottenuti dai test effettuati sul simulatore, possono essere riapplicati in seguito alla rete reale Tor, poiché grazie a Shadow è possibile testare ed ottenere risultati attendibili circa il comportamento e la corretta esecuzione del software Tor.
Resumo:
Lo studio delle malattie che colpiscono i coralli rappresenta un campo di ricerca nuovo e poche sono le ricerche concentrate nell’Oceano Indo-Pacifico, in particolare nella Repubblica delle Maldive. Lo scopo di questa ricerca è stato approfondire le conoscenze riguardo distribuzione, prevalenza e host range della Skeleton Eroding Band (SEB) nell’atollo di Faafu. Durante il lavoro, svolto in campo tra il novembre e il dicembre 2013, sono state indagate le isole di: Magoodhoo, Filitheyo e Adangau al fine di rilevare differenze nei livelli di prevalenza della SEB in relazione ai diversi gradi di utilizzo da parte dell’uomo delle 3 isole. Il piano di campionamento ha previsto la scelta casuale, in ciascuna delle isole, di 4 siti in cui sono stati realizzati 3 belt transect e 3 point intercept transect a 2 profondità predefinite. La SEB è stata ritrovata con una prevalenza media totale di 0,27%. Dai risultati dell’analisi statistica le differenze fra le isole non sono apparse significative, facendo ipotizzare che i livelli di prevalenza differiscano a causa di oscillazioni casuali di carattere naturale e che quindi non siano dovute a dinamiche legate al diverso sfruttamento da parte dell’uomo. I generi Acropora e Pocillopora sono risultati quelli maggiormente colpiti con valori di prevalenza totale di 0,46% e 1,33%. Infine è stata rilevata una correlazione positiva tra il numero di colonie di madrepore affette dalla SEB e il numero di colonie in cui la malattia è associata alla presenza di lesioni provocate da danni meccanici. I dati di prevalenza ottenuti e le previsioni di cambiamenti climatici in grado di aumentare distribuzione, host range, abbondanza della patologia, pongono l’accento sulla necessità di chiarire il ruolo delle malattie dei coralli nel deterioramento, resilienza e recupero dei coral reefs, al fine di attuare politiche di gestione adatte alla protezione di questi fragili ecosistemi.
Resumo:
Uno dei problemi più diffusi, nell'ambito della logistica, è rappresentato dai costi di trasporto. La gestione dei flussi merci, l'approvvigionamento dei clienti, e la relativa pianifcazione della movimentazione dei veicoli, hanno incidenze notevoli sui costi di gestione aziendali, i quali vengono stimati mediamente nel 45% dei costi logistici. A ragione di questo, sono sempre di più le aziende che ricorrono all'impiego di uffici dedicati alla pianifcazione delle consegne e la gestione dei trasporti in generale. Sebbene le voci di bilancio relative al trasporto raggiungano cifre rilevanti, fno al 4% del fatturato annuo, il tema della pianifcazione viene spesso sottovalutato. Infatti la soluzione a problemi di pianifcazione e monitoraggio dei costi, è spesso demandata a procedure manuali senza supporto informatico. Nasce da qui l'esigenza di proporre uno strumento informatico che supporti gli addetti preposti alla pianifcazione, sviluppando un sistema che copra esigenze di pianifcazione dei viaggi, controllo e consuntivazione dei costi di trasporto, e monitoraggio dei mezzi in tempo reale. La proposta di Gesp srl, Geographic Information Systems, azienda italiana che opera da anni nel campo delle applicazioni software geo-spaziali, prende il nome di Nuovo Sistema Trasporti, o più semplicemente, NST. In quest'ambito prende corpo questa tesi, la quale si pone l'obiettivo di illustrare le fasi di nascita, analisi, progettazione e sviluppo di un software generico per il supporto alla logistica. Saranno così analizzati: le problematiche affrontate nella fase di defnizione, e kick-off (avvio), del progetto, il problema del routing, o Vehicle Routing Problem e le tecniche di Ricerca Operativa che vengono applicate per la sua risoluzione; le moderne metodologie di gestione e sviluppo di un software; l'architettura e le tecnologie impiegate per la distribuzione dell'applicativo.
Resumo:
L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.
Resumo:
In questo lavoro ci si propone di descrivere la realizzazione di un sistema laser con cavit´a esterna e di un apparato da ultra-alto-vuoto, che verranno impiegati in un esperimento di miscele di atomi ultrafreddi che utilizza due specie atomiche di bosoni: 87Rb e 41K. Speciale attenzione viene rivolta verso le caratteristiche dello schema utilizzato e sul sistema di controllo in temperatura, che rendono questo sistema laser particolarmente stabile in frequenza e insensibile alle vibrazioni e variazioni di temperatura. Si sono poi analizzate le propriet´a dei materiali impiegati e delle procedure sperimentali adottate per la realizzazione del nuovo apparato da vuoto, al fine di garantire migliori prestazioni rispetto al sistema attualmente in uso.
Resumo:
Il lavoro presentato in questa tesi è stato svolto nell'ambito dell'esperimento MAGIA (Misura Accurata di G mediante Interferometria Atomica) che, come suggerito dall'acronimo, si propone di realizzare una misura della Costante Gravitazionale G utilizzando un interferometro atomico come sensore di forza. L'obbiettivo di MAGIA è quello di fornire una misura di G con un'incertezza di circa 100 ppm, per raggiungere lo scopo è necessario conoscere il gradiente gravitazionale presente nel laboratorio durante la misura di G. Un errore nella valutazione del gradiente gravitazionale del 10% comporterebbe un errore nella misura di G di 26 ppm. Si è quindi modificato l'apparato per abilitarlo alla misura del gradiente. Dopo la determinazione del gradiente gravitazionale si è portando l'errore sulla misura di G causato dalla sua incertezza a circa 1 ppm. Vista l'importanza della misura del gradiente gravitazionale negli studi geologici e nella ricerca mineraria, si è studiata la possibilità dell'utilizzo dello strumento come gradiometro per misure geologiche. Inoltre si è anche caratterizzato il sistema di iniezione degli atomi e se n’è studiato un possibile miglioramento.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
L'oggetto della tesi è la costruzione di un modello organizzativo e funzionale per le nuove strutture previste a livello nazionale per l'assistenza primaria e denominate Unità Complesse di Cure Primarie (UCCP). Il modello è composto da un profilo organizzativo, un'architettura funzionale e un sistema di indicatori per il monitoraggio di un insieme di prestazioni rilevanti.
Resumo:
Lo studio si inserisce all’interno del progetto THESEUS, il cui obiettivo primario è quello di fornire una metodologia integrata per la pianificazione di strategie di difesa sostenibile per la gestione dell’erosione costiera e delle inondazioni. Nel presente lavoro di tesi in particolare sono state esaminate le componenti biotiche e abiotiche della zona intertidale di 6 spiagge (Lido di Spina, Bellocchio, Lido di Dante, Cervia, Cesenatico, Cesenatico sud) lungo la costa emiliano-romagnola, diverse tra loro per caratteristiche morfodinamiche, per grado di antropizzazione, modalità di gestione ed interventi effettuati per contrastare i fenomeni di erosione costiera. Sono state quindi considerate porzioni di litorale in cui non sono presenti opere di difesa costiera rigide, quali pennelli e barriere, e dove sono quasi del tutto assenti strutture turistico-balneari, e tre siti più antropizzati per la presenza di strutture di difesa costiera o per attività inerenti il turismo. Lo scopo di questo lavoro consiste nella: 1) analisi delle comunità macrobentoniche della zona intertidale in termini di composizione tassonomica; 2) analisi delle comunità macrobentoniche in termini di gruppi funzionali o gruppi trofici, cioè specie che, all’interno della comunità, svolgono la stessa funzione ecologica; 3) relazione fra la struttura delle comunità e le caratteristiche abiotiche e morfodinamiche delle spiagge indagate. L’analisi dei dati ha mostrato come le comunità rinvenute a Bellocchio e Lido di Dante, sia in termini di struttura trofica che tassonomica, siano le più diverse fra di loro. Con l’eccezione di Bellocchio, tutte le spiagge sono dominate dal gruppo trofico dei “suspension feeders” a causa dell’elevata abbondanza del bivalve Lentidium mediterraneum. Quando dalla matrice multivariata biotica viene elimina questa specie, si evidenziano differenze più marcate fra i siti definiti naturali e quelli definiti più antropizzati. Considerando le matrici morfo-abiotiche, Lido di Spina, Cesenatico e Cesenatico sud presentano un sedimento medio-fine e moderatamente ben classato, tipico delle spiagge del litorale emiliano-romagnolo; viceversa Lido di Dante e Bellocchio presentano un sedimento rispettivamente più grossolano e molto fine e argilloso a Bellocchio.
Resumo:
Internet of Energy è un progetto di ricerca europeo nato con lo scopo di sviluppare infrastrutture hardware e software volte a introdurre la mobilità elettrica veicolare nei moderni contesti urbani. È stato oggetto di tesi di Federco Montori il quale ha sviluppato un primo prototipo di piattaforma comprendente un servizio cittadino di gestione delle ricariche, un’applicazione mobile che vi interagiva e infine un simulatore necessario al test della piattaforma. Nel corso di oltre un anno di sviluppo ho riscritto tutte le componenti software che costituivano il progetto ampliandone notevolmente le funzionalità, rendendole modulari e ben ingegnerizzate. Del progetto originario è stata ereditata l’architettura ontology-based basata sullo scambio di informazioni tramite il Semantic Information Broker (SIB). Il mio contributo è iniziato nel 2012 con la riscrittura dell’applicazione mobile che inizialmente funzionava solo in presenza del simulatore. Attualmente permette di interfacciarsi a un veicolo reale tramite la tecnologia Blue&Me di Fiat. Questo approccio è stato reso possibile grazie all’opportunità offerta dal Centro Ricerche Fiat, che ci ha permesso di testare presso loro sede l’applicazione mobile su un prototipo di Daily elettrico. Ho inoltre introdotto lo studio del profilo altimetrico e consumo energetico che separa il possessore dello smartphone da una determinata destinazione. Nel 2013 ho deciso di riscrivere il Servizio Cittadino per renderlo conforme a un nuovo protocollo di prenotazione. Ho colto l’occasione per rendere il servizio altamente performante grazie a tecniche quali: pool di thread, pool di oggetti e caching. Infine a cavallo tra il 2013 e il 2014 ho riscritto il simulatore al fine di ottimizzare il consumo di risorse, velocizzare il setup delle simulazioni e sopratutto renderlo più conforme alla realtà. Questo lavoro ha permesso di avere una piattaforma software che permette di valutare realisticamente gli scenari di mobilità elettrica veicolare.
Resumo:
Il presente lavoro è volto allo studio di soluzioni di rinforzo strutturale di edifici storici in muratura mediante materiali compositi innovativi a matrice inorganica FRCM (Fiber Reinforced Cementitious Matrix). E' stato effettuato un confronto tra due sistemi di rinforzo con compositi SRG (Steel Reinforced Grout) in fibre d'acciaio ad altissima resistenza, nell'ottica di un progetto di miglioramento sismico del teatro Pavarotti di Modena, in particolare della parete di fondo retrostante il palcoscenico. Ipotizzati alcuni meccanismi di collaso della parete, la vulnerabilità sismica della stessa, nei confronti di ciascun meccanismo, è stata valutata attraverso l'analisi cinematica lineare. Successivamente per ogni meccanismo è stato studiato un sistema di rinforzo SRG al fine di incrementare la capacità sismica della parete e il moltiplicatore di collasso.
Resumo:
Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.
Resumo:
Il cloud permette di condividere in maniera veloce ed intuitiva non solo le informazioni, ma anche dati e programmi aumentando notevolmente le capacità di collaborazione di tutti, partendo da chi lo utilizza a livello personale per arrivare a chi lo utilizza a livello professionale. È possibile creare le proprie applicazioni aziendali e farle comunicare remotamente con le soluzioni cloud presenti sul mercato, attraverso gli strumenti messi a disposizione dai fornitori. Le applicazioni stesse potranno essere pubblicate su server anch’essi cloud, gestiti interamente da aziende esterne, che permettono una forma di pagamento in base all’effettivo utilizzo e libera dalle implicazioni della gestione di un server. In questo scenario verrà svolta una ricerca sulle caratteristiche di alcuni servizi cloud esistenti, in particolare riguardo ai software di gestione dei documenti, e verrà creata un’applicazione che comunica con essi sfruttandone le potenzialità.
Resumo:
Nel lavoro è stato indagata la possibilità di allagare in modo controllato aree prospicienti il fiume Montone poste più a monte rispetto alla città di Ravenna, al fine di garantirne la sicurezza idraulica.