999 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
Questo elaborato finale presenta la proposta di traduzione di alcuni capitoli del volume "Adama ou la vie en 3D" di Valentine Goby. Questo testo fa parte della collana Français d'ailleurs, sostenuta e promossa dalla Cité nationale de l'histoire de l'immigration di Parigi. Dopo un breve riassunto della storia di questa istituzione, propongo una traduzione di tre capitoli che trattano il tema delle leggi relative al rilascio dei documenti agli immigrati, seguita da un'analisi di traduzione a livello lessicale e morfosintattico, per poi passare a un approfondimento sulla situazione politica e sociologica della Francia degli anni '80 e '90, periodo in cui si svolge il racconto.
Resumo:
Il lavoro svolto si concentra sullo studio e lo sviluppo dei sistemi software per la gestione dei big data. Inizialmente sono stati analizzati i settori nei quali i big data si stanno diffondendo maggiormente per poi studiare l'ingegnerizzazione e lo sviluppo dei sistemi in grado di gestire questo tipo di dati. Sono state studiate tutte le fasi del processo di realizzazione del software e i rischi e i problemi che si possono incontrare. Infine è stato presentato un software di analisi di big data: Google BigQuery.
Resumo:
Questa tesi si prefigge di analizzare le condizioni di stabilità di un argine inferiore del fiume Po situato presso il comune di Viadana (MN), più volte interessato da eventi franosi che si sono ripetuti con una certa frequenza nel corso degli ultimi anni. L'argomento proposto nella tesi prende spunto dall’esperienza presso il Polo Scientifico e Tecnologico di AIPO a Boretto (RE), nell’ambito del tirocinio formativo, durante il quale ho portato a termine un programma di prove geotecniche su campioni indisturbati prelevati nel sito interessato da fenomeni di instabilità, allo scopo di migliorare le conoscenze sulla risposta meccanica dei terreni arginali e del substrato di fondazione. Utilizzando i risultati delle prove di laboratorio, unitamente alle informazioni provenienti dai sondaggi e dalle prove penetrometriche (CPT/CPTU), è stato possibile innanzitutto identificare le unità stratigrafiche presenti nel sistema arginale e determinarne i parametri meccanici, per poi procedere alla costruzione del modello geotecnico di riferimento per le analisi di stabilità. Pertanto la tesi si pone come obiettivi principali la messa a punto di un modello geotecnico affidabile dell'argine, la verifica della stabilità globale delle scarpate lato fiume e l'individuazione dei fattori scatenanti i fenomeni di scorrimento osservati, nonché la scelta di possibili interventi per la messa in sicurezza delle sponde, valutandone i benefici in termini del fattore di sicurezza ed i relativi costi. L'insieme dei risultati conseguiti in questo studio permette di fornire utili indicazioni a coloro che sono preposti alla manutenzione e messa in sicurezza delle strutture arginali del fiume Po.
Resumo:
Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.
Resumo:
The Firenzuola turbidite system formed during a paroxysmal phase of thrust propagation, involving the upper Serravallian deposits of the Marnoso-arenacea Formation (MAF). During this phase the coeval growth of two major tectonic structures, the M. Castellaccio thrust and the Verghereto high, played a key role, causing a closure of the inner basin and a coeval shift of the depocentre to the outer basin. This work focuses on this phase of fragmentation of the MAF basin; it is based on a new detailed high-resolution stratigraphic framework, which was used to determine the timing of growth of the involved structures and their direct influence on sediment dispersal and on the lateral and vertical turbidite facies distribution. The Firenzuola turbidite system stratigraphy is characterized by the occurrence of mass-transport complexes (MTCs) and thick sandstone accumulation in the depocentral area, which passes to finer drape over the structural highs; the differentiation between these two zones increases over time and ends with the deposition of marly units over the structural highs and the emplacement of the Visignano MTC. According to the stratigraphic pattern and turbidite facies characteristics, the Firenzuola System has been split into two phases, namely Firenzuola I and Firenzuola II: the former is quite similar to the underlying deposits, while the latter shows the main fragmentation phase, testifying the progressive isolation of the inner basin and a coeval shift of the depocentre to the outer basin. The final stratigraphic and sedimentological dataset has been used to create a quantitative high-resolution 3D facies distribution using the Petrel software platform. This model allows a detailed analysis of lateral and vertical facies variations that can be exported to several reservoirs settings in hydrocarbon exploration and exploitation areas, since facies distributions and geometries of the reservoir bodies of many sub-surface turbidite basins show a significant relationship to the syndepositional structural activity, but are beyond seismic resolution.
Resumo:
In Italia molti edifici sono stati costruiti senza tenere in considerazione l'azione sismica. La necessità di adeguare tali edifici in accordo con la normativa italiana vigente è stato il motivo scatenante di questa ricerca. Per l'adeguamento sismico, vengono qui proposti differenti approcci in base al tipo di struttura e, in particolare, in base alla loro deformabilità. Per le strutture flessibili come le scaffalature di acciaio adibite alla stagionatura del Parmigiano Reggiano, sono stati utilizzati dispositivi passivi di dissipazione energetica. Sono state condotte analisi di sensitività per determinare il coefficiente di smorzamento in grado di minimizzare lo stato tensionale nelle sezioni di interesse. I risultati delle analisi mostrano l'efficacia delle soluzioni proposte e potrebbero rappresentare un punto di partenza per la definizione di possibili contromisure standar per l'adeguamento sismico. Per le strutture rigide, come i ponti in muratura, sono stati definiti alcuni criteri per la modellazione e la verifica delle sezioni di interesse, utilizzando modelli semplificati ma dall'efficacia comprovata come termine di paragone.
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
La tesi descrive PARLEN, uno strumento che permette l'analisi di articoli, l'estrazione e il riconoscimento delle entità - ad esempio persone, istituzioni, città - e il collegamento delle stesse a risorse online. PARLEN è inoltre in grado di pubblicare i dati estratti in un dataset basato su principi e tecnologie del Semantic Web.
Resumo:
Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato
Resumo:
Sono studiati nel dettaglio, sia dal punto di vista matematico che con un certo inquadramento storico, i capitoli quinto e sesto del volume ''Le operazioni distributive e le loro applicazioni all'analisi'' di Salvatore Pincherle. La tesi si inserisce in un progetto più ampio di studio ed è già stata preceduta da un'altra tesi magistrale dedicata ai primi capitoli del libro.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
Il lavoro di tesi ha l'obiettivo di fornire un quadro conoscitivo preliminare della Conoide Enza, importante corpo idrico sotterraneo situato nella provincia di Reggio-Emilia. Unitamente viene data una sua rappresentazione cartografica digitale attraverso software GIS, utile a geo-referenziare l'acquifero. Tale lavoro permette di convogliare ed archiviare in un sistema informativo territoriale le osservazioni e i dati necessari a successive indagini quantitative sulla Conoide. In tal senso, viene fornito un esempio di modellazione di flusso nell'acquifero tramite software MODFLOW, così da mostrare l'analisi di uno scenario di prelievo a partire dai dati forniti. In particolare, è simulato il comportamento dell'acquifero in presenza di un pozzo di estrazione, valutando il conseguente effetto indotto sulla piezometria.
Resumo:
L'elaborato ha come oggetto lo Spanglish, lingua ibrida nata in seguito al bilinguismo negli Stati Uniti. L'elaborato, in particolare, propone un'analisi di tale fenomeno a partire dalle origini fino a giungere alla discussa traduzione del Don Quijote de La Mancha per mano di Ilan Stavans.
Resumo:
Nel corso degli ultimi decenni si è assistito a un aumento di malattie e disturbi che colpiscono il sistema nervoso,specialmente il cervello. Si è dunque resa necessaria la ricerca e l'analisi di tecniche di stimolazione transcranica a fini sperimentali, clinici e di diagnosi. Tra queste spiccano per la loro versatilità la TMS e la tDCS, le quali hanno già trovato e possono ancora trovare la loro applicazione in numerosi ambiti anche molto differenti tra loro, tra cui quello motorio, verbale, della memoria o per disturbi neurodegenerativi. L'analisi approfondita delle loro applicazioni può non solo portare a meglio comprendere i limiti che le due tecniche hanno al giorno d'oggi e quindi portare a un miglioramento delle stesse, ma anche ad una comprensione più accurata del funzionamento del sistema nervoso, tutt'ora ancora alquanto oscuro nella sua complessità. Infine, confrontando le due tecniche si può meglio definire anche quali possano essere gli ambiti in cui l'una e l'altra sono più vantaggiose o possano dare contributi più incisivi.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.