67 resultados para Distribuito, Modello, Attori, Software, quality, Scalabilità
Resumo:
Alla base delle analisi di radioprotezione di una azienda sanitaria si potrebbero considerare quattro settori da cui partire: le attività svolte che presentano un rischio dal punto di vista radiologico, gli apparecchi radiogeni, i locali all'interno del quale si svolgono le attività e infine i lavoratori, che devono essere classificati o meno in base ai valori di dose efficace a cui vengono esposti. In questo elaborato si vuole presentare un nuovo modello informatico di gestione, definito activity-oriented perché volto a portare le attività al centro dell'indagine di radioprotezione così da poter strutturare di conseguenza anche i dati relativi ad apparecchiature, locali e lavoratori, in modo da avere un visione completa dell’azienda così da facilitarne il monitoraggio. Tale modello è stato creato negli ultimi anni nell’azienda USL di Forlì e contemporaneamente è stato sviluppato un software che permette di automatizzare parte dei lavori di competenza dell’Esperto Qualificato. Applicando tali strumenti sull’Azienda USL della Romagna Area Territoriale di Ravenna è stato possibile passare da una gestione cartacea, priva di modellizzazione informatica, ad una gestione basata sul concetto di attività a rischio radiologico. Verranno evidenziati i passaggi che sono stati necessari per un corretto adattamento dello schema e inoltre verranno presentati i risultati ottenuti. In conclusione si vuole evidenziare come il modello descritto permetta una consistente riduzione del tempo necessario per svolgere le attività di competenza dell'Esperto Qualificato, riducendo inoltre gli errori commessi. Si ha così un guadagno di tempo impiegabile per formare i lavoratori classificati sui rischi che ci sono lavorando con radiazioni ionizzanti e quali possono essere le opportune precauzioni da utilizzare.
Resumo:
Vengono analizzate le strategie di rilascio delle principali Distribuzioni Linux e i metodi per la compilazione automatizzata del software. Si propone quindi una nuova metodologia sia per il rilascio di media installabili e sia per la pacchettizzazione. Sfruttando le tecnologie del campo DevOps, si introduce quindi un alto grado di scalabilità anche in ambienti Cloud, grazie anche alla riproducibilità di ogni componente dell'infrastruttura proposta. Vedremo quindi come questo approccio aumenta l'automatizzazione nei cicli produttivi per la realizzazione della Distribuzione Sabayon Linux e per la definizione di un'infrastruttura automatizzata attualmente in production.
Resumo:
La tesi si pone come obiettivo quello di realizzare un'architettura di alto livello per lo sviluppo di applicazioni dirette alla piattaforma HoloLens. Per conseguire tale risultato si è rivelata necessaria una prima parte di studio dei concetti di mixed reality, con riferimento particolare al caso specifico HoloLens, per poi dirigere l'attenzione alla comprensione dell'architettura di applicazioni olografiche. L'analisi delle API rilasciate per lo sviluppo di applicazioni HoloLens ha permesso di riscontrare varie criticità, alle quali si è posto rimedio tramite l'introduzione di un livello di astrazione, che possa consentire uno sviluppo di applicazioni ad un livello più alto. Si è poi introdotto il concetto di augmented worlds (mondi aumentati), i cui principi cardine hanno fornito le basi per la progettazione e lo sviluppo di un sistema client-server, nel quale il dispositivo HoloLens agisce come un client e la logica di controllo degli elementi del modello dell'applicazione viene gestita lato server.
Resumo:
In questo lavoro di tesi si è realizzato un modello matematico con l’intento di fornire uno strumento per lo studio della risposta cardiovascolare alla contropulsazione esterna. L’ EECP (Enhanced External Counterpulsation) è un metodo non invasivo di assistenza cardiaca basato sull’applicazione di pressioni sincronizzate col ritmo cardiaco su determinate superfici corporee. I benefici della terapia su pazienti con sofferenze cardiache sono confermati dalle tabelle cliniche; rimane tuttavia non chiaro il legame diretto tra questi e la EECP. La base del lavoro è un modello della circolazione sanguigna adattato allo studio della situazione in esame e riprodotto mediante il software di calcolo Matlab. Il modello proposto e la relativa simulazione numerica permettono la visualizzazione istantanea delle modifiche che l’azione di contropulsazione apporta al flusso e alla pressione sanguigna, al fine di offrire un aiuto nella ricerca di un legame diretto tra la EECP e i benefici che questa terapia ha sul paziente.
Resumo:
Il lavoro svolto si concentra sulla termografia attiva e su come essa possa essere usata come tecnica diagnostica non distruttiva. La sperimentazione ha visto la realizzazione di un modello di prova consisntente in una porzione di muro a forma di c costituito da mattoni pieni, intonacato solo su un lato. Attraverso il riscaldamento della porzione intonacata e tramite l'utilizzo di termocoppie sono state monitorate le temperature superficiali interne ed esterne e dell'ambiente interno ed esterno. In fase di raffreddamento il monitoraggio è stato implementato dalle riprese termografiche effettuate ad istanti di tempo regolari, riprendendo la superficie intonacata e riscaldata. Elaborando le immagini è stato possibile individuare sia la tessitura muraria che la discontinuità inserita in fase di costruzione. Per avere una verifica è stato realizzato, tramite un software, un modello bidimensionale dell'elemento studiato, ed è stato studiato il raffreddamento in condizioni dinamiche. Si osserva che i risultati ottenuti sono qualitativamente opposti a quelli riscontrati dalle immagini della sperimentazione, uno dei motivo può essere attribuito all'alta tridimensionalità del problema reale che il modello non tiene in considerazione.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
Il presente elaborato di tesi si concretizza in un inquadramento generale relativo alle emissioni odorigene: cosa sono, i riferimenti normativi, come si misurano. Si è poi fatto riferimento a un caso reale, ovvero un impianto operante nella lavorazione dei semi oleosi che ha subito una modifica della propria configurazione impiantistica. Le emisisoni odorigene sono state modellate, mediante l'utilizzo del software Calpuff, in relazione a due stati: prima e dopo la modifica. Questo ha permesso di fare un confronto in termini di impatto sull'ambiente.
Resumo:
Le prestazioni dei motori a combustione interna sono fortemente influenzate dalla formazione di un film fluido, a seguito dell'impatto di uno spray con una parete. Nell'ottica di favorire la formazione della miscela e di ridurre le emissioni, lo studio approfondito di tale fenomeno deve essere supportato da un processo di simulazione assistita dal calcolatore. Pertanto, la Fluidodinamica Computazionale (Computational Fluid Dynamics, CFD) ed i modelli ad essa associati rappresentano al giorno d'oggi uno strumento vantaggioso e sempre più utilizzato. In questo ambito si colloca il presente lavoro di tesi, che si propone di validare il modello di film fluido implementato nel software OpenFOAM-2.3.0, confrontando i risultati ottenuti, in termini di altezza del film fluido, con quelli del caso sperimentale di Le Coz et al.
Resumo:
Questo lavoro di tesi si prefigge l’obiettivo di simulare il trasporto di organi destinati a trapianto sul territorio nazionale italiano. Lo scopo della simulazione è mettere in luce le criticità e le eventuali soluzioni alternative in modo da raggiungere un duplice obiettivo: la certezza di portare a compimento il trasporto da un ospedale ad un altro entro i tempi clinici necessari affinché l’organo sia ancora utilizzabile e la riduzione dei costi del trasporto, che negli ultimi anni si sono rivelati elevati a causa del ricorso frequente a voli di Stato. Nella prima parte del lavoro viene delineato il problema e le necessità di ottimizzazione della rete, dopodiché si illustra il modello creato per simulare la situazione di as-is ed infine si espone il modello da utilizzare in futuro, dove si prevedono i tempi futuri di percorrenza. Per la modellazione della situazione attuale sono stati utilizzati due livelli di dettaglio diversi, uno che si basa sulla suddivisione dei trapianti in ingresso e uscita da una regione specifica e uno che approfondisce ulteriormente la rete modellando gli spostamenti di città in città. I modelli predittivi presentati sono due, uno che considera tempi predittivi deterministici e uno che considera tempi stocastici. Dopo ciascuna modellazione vengono esposti i risultati e le statistiche più significative; vengono infine messi in evidenza gli aspetti critici e gli sviluppi futuri della simulazione. Il software scelto per creare e simulare il trasporto degli organi sulla rete è Arena.
Resumo:
Il presente lavoro di tesi riguarda lo studio di un modello di stima delle emissioni per la previsione della contaminazione ambientale in aria. Il lavoro è stato svolto all’interno del DICAM dell’Università di Bologna attraverso il supporto del relatore Giacomo Antonioni e dei correlatori Ada Saracino e Gigliola Spadoni. L’applicazione modellistica, attraverso l’uso del software CALPUFF, ha trattato le emissioni del camino E312 della sezione Agglomerazione dello stabilimento siderurgico ILVA di Taranto nell’anno 2015. Gli inquinanti simulati sono quelli per i quali lo SME fornisce il flusso di massa: SO2, NOx, PM. Le polveri sono state considerate completamente costituite da polveri PM10 e per esse si è calcolata la concentrazione al suolo e la deposizione. A partire dai risultati per le polveri, ipotizzando che siano in parte veicolati da esse, sono state valutate anche le concentrazioni e le deposizioni di Diossine. Della configurazione modellistica “ottimale” sono stati presentati: ▪ Per i macroinquinanti le medie annue di concentrazione al suolo, e quindi, la dispersione degli inquinanti. ▪ Per i microinquinanti i valori massimi di concentrazione annua e di deposizione ottenuti nell’area di studio. Nel caso in esame, lo studio è stato riferito alla rete deposimetrica di gestione ILVA (per mancanza di dati deposimetrici della rete di gestione ARPA). In particolare è stato preso in considerazione il deposimetro del quartiere Tamburi a fronte delle criticità rilevate nei mesi di Novembre 2014 e Febbraio 2015, tale per cui, visti gli elevatissimi valori di deposizione, vista la notevole importanza che i dati deposimetrici hanno rispetto al rischio sanitario per ingestione, è stata aperta un’indagine della procura che ha affidato l’analisi a ARPA PUGLIA congiunta con l’ISPRA (che ne ha mandato ministeriale) e la Regione Puglia. A fronte di tali episodi, il seguente studio ha voluto fornire un resoconto deposimetrico per l’anno 2015.
Resumo:
La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.
Resumo:
Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
La gestione e il recupero dei rifiuti è un aspetto fondamentale per tentare di ridurre l’impatto negativo delle nostre attività sull’ambiente; è responsabilità di ognuno di noi contribuire all’arresto del processo di degrado a cui è sottoposto il pianeta. È noto che gli agglomerati urbani, con i loro scarichi e scarti, sono una delle cause principali di contaminazione ambientale. La vertiginosa espansione dei tessuti urbani degli ultimi cinquant’anni ha notevolmente aumentato la produzione di rifiuti. Ogni cittadino italiano, secondo i dati ISPRA 2021, produce circa 500 kg di rifiuti in un anno. La rincorsa verso il benessere conquistato attraverso l’accumulo di beni materiali non ha lasciato spazio alla cultura attenta al rispetto delle risorse naturali e ne paghiamo le conseguenze. Il focus di questa ricerca è supportare la gestione dei rifiuti urbani e garantire il loro recupero e riutilizzo immediato. L’obiettivo finale è quello della diminuzione/eliminazione dell’abbandono dei rifiuti della plastica, mettendo in relazione operosa gli attori coinvolti nel processo e sviluppando un servizio che semplifichi e rafforzi i meccanismi di raccolta e di riuso. Collocandosi nel contesto di Zaragoza, in Spagna, vengono introdotte alcune specifiche azioni strategiche al fine di condurre i cittadini ad adottare precise pratiche per la salvaguardia ambientale. L’azione a livello locale diventa prototipo con prospettiva globale. Un’osservazione dal basso ci può mostrare cose che, dalla distanza, non si sarebbero potute vedere. Si parte da identità specifiche, considerando i comportamenti di individui che abitano uno stesso luogo e concentrandosi sulla dimensione collettiva delle loro pratiche cercando di cambiarle attraverso obiettivi chiari e premialità. Analizzando i comportamenti di piccoli gruppi, sono state individuate azioni capaci di indirizzarli verso modelli più appropriati modificando le regole del progetto a partire dall’osservazione di questi comportamenti.
Resumo:
Le energie rinnovabili rappresentano il presente e allo stesso tempo il futuro della produzione elettrica mondiale. Produrre sempre più energia da fonti rinnovabili è una necessità condivisa da tutti i Paesi del mondo per cercare di dare un freno agli evidenti problemi climatici e alle continue minacce subite dall’ecosistema, che stanno condizionando il pianeta negli ultimi anni. Nel corso di questo elaborato ci si è concentrati soprattutto sul fotovoltaico, che a differenza delle altre fonti, essendo alimentato dall’energia solare è ben distribuito in quasi tutto il pianeta e nel corso degli ultimi anni ha avuto una crescita e una diffusione esponenziali in Italia e nel resto del mondo. La sempre crescente innovazione nel campo dei materiali utilizzati, permette ad oggi una maggiore scelta della tipologia di pannello da installare, sulla base dei vari fattori che possono influenzarne efficienza e rendimento. L’obiettivo finale è quello di avere tutti i dati necessari per effettuare l’analisi e il confronto tra le simulazioni di funzionamento di diverse tipologie di fotovoltaico, valutandone, oltre all’aspetto tecnico, anche la convenienza e i vantaggi in termini di rendimento. Durante lo sviluppo della tesi, le simulazioni sono state condotte prendendo come riferimento un capannone industriale ubicato nella stazione ferroviaria di Bologna Interporto, analizzando poi i dati mediante l’ausilio del software PVSyst. per confrontare i dati e i risultati ottenuti all’interno di un resoconto che evidenzi le maggiori differenze e la soluzione più vantaggiosa in termini di rendimento.