6 resultados para top-down analysis
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
L'elaborato di tesi sviluppato ha come obiettivo l'ottimizzazione della Supply Chian di contesti manufatturieri con particolare attenzione alle procedure di approvvigionamento dei materiali e al problema dei materiali "mancanti" in produzione.Viene esposto il risultato di un’attività di analisi di due casi reali per l’ottimizzazione dell'impatto logistico del problema dell'alimentazione di sistemi di fabbricazione e montaggio. Lo studio è stato affrontato definendo un approccio basato su una duplice analisi del processo, top-down e bottom-up. Le due analisi condotte hanno permesso di procedere alla mappatura dell’intero processo end to end (che inizia con le richieste del cliente e termina con la consegna dei prodotti allo stesso) e di individuare le criticità in esso presenti, sulla base delle quali sono state fornite una serie di linee guida per la risoluzione del problema dei mancanti. I risultati ottenuti hanno evidenziato che l’ottimizzazione dell’area di pianificazione permette di migliorare la qualità dei dati in ingresso all’intero processo con conseguente diminuzione del numero di materiali mancanti. Tuttavia, la trasversalità dell’argomento ai processi aziendali impedisce la definizione di un approccio al problema focalizzato su un’area specifica. Infine, è stata eseguita una bozza di valutazione economica per la stima dei tempi di recupero degli investimenti necessari.
Resumo:
Il presente lavoro di tesi nasce dalla collaborazione tra l’Università di Bologna, Polo Scientifico Didattico di Ravenna, e l’Agenzia Regionale Prevenzione ed Ambiente dell’Emilia Romagna (ARPA EMR), sezione di Ravenna, inserendosi nell’ambito del progetto di Dottorato “Sviluppo di tecniche per la progettazione delle reti di monitoraggio della qualità dell’aria”. Lo scopo principale dello studio è quello di definire una metodologia di tipo Top-Down per disaggregare spazialmente sulla Provincia di Ravenna le emissioni in atmosfera stimate dall’inventario provinciale di ARPA EMR. La metodologia CORINAIR (COordination INformation AIR), sviluppata dalla Agenzia Europea per l’Ambiente, prefigura due possibili procedure di stima delle emissioni in atmosfera: Top-Down (parte dalla scala spaziale più ampia e discende a livelli inferiori) e Bottom-Up (parte invece dall’analisi della realtà produttiva locale per passare a quella relativa a livelli di aggregazione maggiori). La metodologia proposta, di tipo Top-Down, si avvale volutamente di variabili proxy facilmente reperibili a livello comunale, in modo che possa essere applicata anche ad altre realtà locali, meno ricche di dati statistici e ambientali di quanto non lo sia la regione Emilia Romagna in generale e la provincia di Ravenna in particolare. La finalità ultima dello studio è quella di fornire una metodologia per ottenere, attraverso dati resi disponibili da ogni amministrazione comunale, un quadro conoscitivo della situazione emissiva in atmosfera a livello locale a supporto della gestione della qualità dell’aria e dei relativi fattori di pressione. Da un punto di vista operativo, il lavoro di tesi è stato suddiviso in: una fase progettuale, con l’obiettivo di individuare i Macrosettori CORINAIR e gli inquinanti principali da tenere in considerazione nello studio, ed identificare le variabili proxy più opportune per la disaggregazione delle emissioni; una fase di raccolta dei dati ed infine, l’elaborazione dei dati con l’ausilio del software GIS ArcMap 9.3. La metodologia Top-Down è stata applicata in due fasi: con la prima si è effettuata la disaggregazione dal livello provinciale a quello comunale; con la seconda, le emissioni attribuite al comune di Ravenna sono state distribuite spazialmente su una griglia le cui celle hanno dimensione 100m x 100m in modo da ottenere una disaggregazione ad alta risoluzione. I risultati ottenuti dalla disaggregazione effettuata sono stati confrontati, là dove possibile, con dati ottenuti da un approccio Bottom-Up, allo scopo di validare la metodologia proposta. I confronti fra le stime effettuate con l’approccio Top-Down e quelle derivanti dall’approccio Bottom-Up hanno evidenziato risultati diversi per i differenti Macrosettori investigati. Per il macrosettore industriale, si sono evidenziate una serie di limitazioni dimostrando che l’utilizzo della proxy ‘superficie industriale’, così come applicata, non è adeguata né a livello qualitativo né quantitativo. Limitazioni significative, si osservano anche per il macrosettore ‘traffico veicolare’ per il quale è possibile effettuare una stima accurata delle emissioni totali ma poi la disaggregazione spaziale ad alta risoluzione appare insoddisfacente. Ottime risultano invece le performance della metodologia proposta per il macrosettore combustione non industriale, per il quale si osserva un buon accordo sia per i valori emissivi globali, sia per la loro distribuzione spaziale ad alta risoluzione. Relativamente agli altri settori e macrosettori analizzati (‘Altre sorgenti mobili’ e ‘Agricoltura’), non è stato possibile effettuare confronti con dati provenienti dall’approccio Bottom- Up. Nonostante ciò, dopo un’attenta ricerca bibliografica, si può affermare, che le proxy utilizzate sono fra quelle più impiegate in letteratura, ed il loro impiego ha permesso l’ottenimento di una distribuzione spaziale verosimile ed in linea con l’inventario provinciale ARPA EMR. In ultimo, le mappe di pressione ottenute con l’ausilio di ArcMap sono state analizzate qualitativamente per identificare, nel territorio del Comune di Ravenna, le zone dove insiste una maggiore pressione emissiva sul comparto atmosferico. E’ possibile concludere che il livello di dettaglio ottenuto appare sufficiente a rappresentare le zone più critiche del territorio anche se un ulteriore lavoro dovrà essere previsto per sviluppare meglio i macrosettori che hanno mostrato le maggiori criticità. Inoltre, si è riusciti a tracciare una metodologia sufficientemente flessibile per poterla applicare anche ad altre realtà locali, tenendo comunque sempre presente che, la scelta delle proxy, deve essere effettuata in funzione delle caratteristiche intrinseche del territorio.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
The Large Hadron Collider, located at the CERN laboratories in Geneva, is the largest particle accelerator in the world. One of the main research fields at LHC is the study of the Higgs boson, the latest particle discovered at the ATLAS and CMS experiments. Due to the small production cross section for the Higgs boson, only a substantial statistics can offer the chance to study this particle properties. In order to perform these searches it is desirable to avoid the contamination of the signal signature by the number and variety of the background processes produced in pp collisions at LHC. Much account assumes the study of multivariate methods which, compared to the standard cut-based analysis, can enhance the signal selection of a Higgs boson produced in association with a top quark pair through a dileptonic final state (ttH channel). The statistics collected up to 2012 is not sufficient to supply a significant number of ttH events; however, the methods applied in this thesis will provide a powerful tool for the increasing statistics that will be collected during the next LHC data taking.
Resumo:
Nella fisica delle particelle, onde poter effettuare analisi dati, è necessario disporre di una grande capacità di calcolo e di storage. LHC Computing Grid è una infrastruttura di calcolo su scala globale e al tempo stesso un insieme di servizi, sviluppati da una grande comunità di fisici e informatici, distribuita in centri di calcolo sparsi in tutto il mondo. Questa infrastruttura ha dimostrato il suo valore per quanto riguarda l'analisi dei dati raccolti durante il Run-1 di LHC, svolgendo un ruolo fondamentale nella scoperta del bosone di Higgs. Oggi il Cloud computing sta emergendo come un nuovo paradigma di calcolo per accedere a grandi quantità di risorse condivise da numerose comunità scientifiche. Date le specifiche tecniche necessarie per il Run-2 (e successivi) di LHC, la comunità scientifica è interessata a contribuire allo sviluppo di tecnologie Cloud e verificare se queste possano fornire un approccio complementare, oppure anche costituire una valida alternativa, alle soluzioni tecnologiche esistenti. Lo scopo di questa tesi è di testare un'infrastruttura Cloud e confrontare le sue prestazioni alla LHC Computing Grid. Il Capitolo 1 contiene un resoconto generale del Modello Standard. Nel Capitolo 2 si descrive l'acceleratore LHC e gli esperimenti che operano a tale acceleratore, con particolare attenzione all’esperimento CMS. Nel Capitolo 3 viene trattato il Computing nella fisica delle alte energie e vengono esaminati i paradigmi Grid e Cloud. Il Capitolo 4, ultimo del presente elaborato, riporta i risultati del mio lavoro inerente l'analisi comparata delle prestazioni di Grid e Cloud.
Resumo:
L'obiettivo di questa tesi è studiare la fattibilità dello studio della produzione associata ttH del bosone di Higgs con due quark top nell'esperimento CMS, e valutare le funzionalità e le caratteristiche della prossima generazione di toolkit per l'analisi distribuita a CMS (CRAB versione 3) per effettuare tale analisi. Nel settore della fisica del quark top, la produzione ttH è particolarmente interessante, soprattutto perchè rappresenta l'unica opportunità di studiare direttamente il vertice t-H senza dover fare assunzioni riguardanti possibili contributi dalla fisica oltre il Modello Standard. La preparazione per questa analisi è cruciale in questo momento, prima dell'inizio del Run-2 dell'LHC nel 2015. Per essere preparati a tale studio, le implicazioni tecniche di effettuare un'analisi completa in un ambito di calcolo distribuito come la Grid non dovrebbero essere sottovalutate. Per questo motivo, vengono presentati e discussi un'analisi dello stesso strumento CRAB3 (disponibile adesso in versione di pre-produzione) e un confronto diretto di prestazioni con CRAB2. Saranno raccolti e documentati inoltre suggerimenti e consigli per un team di analisi che sarà eventualmente coinvolto in questo studio. Nel Capitolo 1 è introdotta la fisica delle alte energie a LHC nell'esperimento CMS. Il Capitolo 2 discute il modello di calcolo di CMS e il sistema di analisi distribuita della Grid. Nel Capitolo 3 viene brevemente presentata la fisica del quark top e del bosone di Higgs. Il Capitolo 4 è dedicato alla preparazione dell'analisi dal punto di vista degli strumenti della Grid (CRAB3 vs CRAB2). Nel capitolo 5 è presentato e discusso uno studio di fattibilità per un'analisi del canale ttH in termini di efficienza di selezione.