12 resultados para Pipeline Failiure
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
The first goal of this study is to analyse a real-world multiproduct onshore pipeline system in order to verify its hydraulic configuration and operational feasibility by constructing a simulation model step by step from its elementary building blocks that permits to copy the operation of the real system as precisely as possible. The second goal is to develop this simulation model into a user-friendly tool that one could use to find an “optimal” or “best” product batch schedule for a one year time period. Such a batch schedule could change dynamically as perturbations occur during operation that influence the behaviour of the entire system. The result of the simulation, the ‘best’ batch schedule is the one that minimizes the operational costs in the system. The costs involved in the simulation are inventory costs, interface costs, pumping costs, and penalty costs assigned to any unforeseen situations. The key factor to determine the performance of the simulation model is the way time is represented. In our model an event based discrete time representation is selected as most appropriate for our purposes. This means that the time horizon is divided into intervals of unequal lengths based on events that change the state of the system. These events are the arrival/departure of the tanker ships, the openings and closures of loading/unloading valves of storage tanks at both terminals, and the arrivals/departures of trains/trucks at the Delivery Terminal. In the feasibility study we analyse the system’s operational performance with different Head Terminal storage capacity configurations. For these alternative configurations we evaluated the effect of different tanker ship delay magnitudes on the number of critical events and product interfaces generated, on the duration of pipeline stoppages, the satisfaction of the product demand and on the operative costs. Based on the results and the bottlenecks identified, we propose modifications in the original setup.
Resumo:
Il Progetto XCModel, che da dieci anni si sviluppa e si perfeziona col contributo di varie persone, consente la progettazione di scene 3D e la resa fotorealistica. Esso si appoggia sulle funzionalita' grafiche di X-Window in Linux: si tratta di un ambiente in costante evoluzione, dovuta sia alle continue innovazioni hardware che ai cambiamenti degli standard. XCModel e' composto da vari pacchetti, ognuno dei quali specializzato nel trattare un particolare aspetto della modellazione o della resa (curve, superfici, textures, luci, ...) e che si presentano come applicazioni dotate di una sofisticata interfaccia grafica. Tutte attingono alle funzioni della Libreria XTools, che fornisce numerose primitive grafiche facenti uso delle potenzialita' di X-Window. I recenti cambiamenti nelle specifiche di X-Org, ed in particolare la de- standardizzazione del backing-store, ha obbligato il team di XCModel ad una consistente riprogettazione di XTools e di tutti i pacchetti che su di esso s'appoggiano. S'e' colta l'occasione per un massiccio debugging e per modificare i pacchetti in base alle impressioni emerse nel corso degli anni da parte degli utilizzatori, primi tra tutti gli studenti del corso di Grafica tenuto dal Prof. Giulio Casciola, project-manager di XCModel: questa e' un'ulteriore testimonianza del continuo adattamento e dell'aggiornabilita' del Progetto! Nella fattispecie, ci si occupera' delle modifiche effettuate in particolare al pacchetto XCSurf, finalizzato alla creazione ed alla modifica di curve e superfici 3D da utilizzarsi successivamente per la creazione delle scene: tale pacchetto e' di fatto risultato il pie' avulso dalle specifiche di XTools, il che ha costretto ad un massiccio intervento al codice del programma, ma d'altro canto ha consentito una standardizzazione del pacchetto in linea con gli altri, in particolare ridisegnandone l'interfaccia. Nel primo capitolo si effettuera' una veloce panoramica dell'ambiente XCModel e delle problematiche emerse dai cambiamenti degli standard di X-Window. Il secondo capitolo affrontera' un'ampia analisi dell'hardware, del software e dei paradigmi che caratterizzano la grafica interattiva, e gli ambienti necessari per interagire con essa ed esaminando i vari obiettivi raggiungibili. Infine, il terzo capitolo analizzera' nel dettaglio le modifiche effettuate ai pacchetti di XCModel ed in particolare ad XCSurf per l'adattamento ai nuovi standard, nel rispetto delle politiche e delle linee guida dettate dalla grafica interattiva.
Resumo:
Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
This thesis is settled within the STOCKMAPPING project, which represents one of the studies that were developed in the framework of RITMARE Flagship project. The main goals of STOCKMAPPING were the creation of a genomic mapping for stocks of demersal target species and the assembling of a database of population genomic, in order to identify stocks and stocks boundaries. The thesis focuses on three main objectives representing the core for the initial assessment of the methodologies and structure that would be applied to the entire STOCKMAPPING project: individuation of an analytical design to identify and locate stocks and stocks boundaries of Mullus barbatus, application of a multidisciplinary approach to validate biological methods and an initial assessment and improvement for the genotyping by sequencing technique utilized (2b-RAD). The first step is the individuation of an analytical design that has to take in to account the biological characteristics of red mullet and being representative for STOCKMAPPING commitments. In this framework a reduction and selection steps was needed due to budget reduction. Sampling areas were ranked according the individuation of four priorities. To guarantee a multidisciplinary approach the biological data associated to the collected samples were used to investigate differences between sampling areas and GSAs. Genomic techniques were applied to red mullet for the first time so an initial assessment of molecular protocols for DNA extraction and 2b-RAD processing were needed. At the end 192 good quality DNAs have been extracted and eight samples have been processed with 2b-RAD. Utilizing the software Stacks for sequences analyses a great number of SNPs markers among the eight samples have been identified. Several tests have been performed changing the main parameter of the Stacks pipeline in order to identify the most explicative and functional sets of parameters.
Resumo:
Questo elaborato vuole illustrare l’importanza del gas naturale liquefatto, attraverso l’analisi della Strategia Energetica Nazionale e del Bilancio Energetico Nazionale, sostenendo la necessità di costruire ulteriori rigassificatori sul suolo italiano per permettere al nostro Paese, in previsione di una futura ripresa economica, di svincolarsi dalla quasi totale dipendenza di importazioni attraverso “pipeline” che vincolano in modo rigido e monopolistico il Paese importatore a quello esportatore e ai Paesi che vengono attraversati dalla condotta stessa
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
La tesi inserita in un periodo di forte transizione dai sistemi Onpremises a sistemi Cloud ha avuto l'esigenza di risolvere alcune problematiche legate alla definizione delle infrastrutture. Come poter scalare le risorse all'evenienza ricreando gli stessi ambienti, monitorandoli e mettendo in sicurezza i dati critici delle applicazioni? La tesi ha risposto proprio a questa domanda definendo un nuovo paradigma nel concepire le infrastrutture chiamato Infrastructure as Code. La tesi ha approfondito le pratiche e le metodologie che si sono legate maggiormente all'Infrastructure as Code tra le quali Version Control, Configuration Management, Continuous Integration e Continuous Delivery. La tesi inoltre ha previsto la realizzazione di un prototipo finale nato dallo studio del flusso di sviluppo software aziendale, definendo gli ambienti in accordo ai sistemi di Version Control e Configuration Management, applicando pratiche di integrazione continua per giungere ad una deployment pipeline funzionale.
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
Ricavare informazioni dalla realtà circostante è un obiettivo molto importante dell'informatica moderna, in modo da poter progettare robot, veicoli a guida autonoma, sistemi di riconoscimento e tanto altro. La computer vision è la parte dell'informatica che se ne occupa e sta sempre più prendendo piede. Per raggiungere tale obiettivo si utilizza una pipeline di visione stereo i cui passi di rettificazione e generazione di mappa di disparità sono oggetto di questa tesi. In particolare visto che questi passi sono spesso affidati a dispositivi hardware dedicati (come le FPGA) allora si ha la necessità di utilizzare algoritmi che siano portabili su questo tipo di tecnologia, dove le risorse sono molto minori. Questa tesi mostra come sia possibile utilizzare tecniche di approssimazione di questi algoritmi in modo da risparmiare risorse ma che che garantiscano comunque ottimi risultati.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.