929 resultados para Distribution Management System
Resumo:
Includes bibliography
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
In the supply chain management there are several risk factors that must be mitigated to increase the flow of production and as a possible solution the literature cites the implementation of a warehouse management system, but this subject is few explored. This thesis has as main objective the study of the implementation of a warehouse management system in a company from the automotive sector that produces clutches. As results, are shown data of the characterization of items; as well as data and comparisons between disruptions in production reports due to lack of material before and after the implementation of WMS and is presented the result of a questionnaire applied to the involved on the implementation of the system, the results were associated with the risk factors on the implementation of the system studied on the literature review, and enumeration of the results that are not associated with any factors previously studied. And finally, the study is concluded and are recommended future studies related to the theme
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Data Distribution Management (DDM) is a core part of High Level Architecture standard, as its goal is to optimize the resources used by simulation environments to exchange data. It has to filter and match the set of information generated during a simulation, so that each federate, that is a simulation entity, only receives the information it needs. It is important that this is done quickly and to the best in order to get better performances and avoiding the transmission of irrelevant data, otherwise network resources may saturate quickly. The main topic of this thesis is the implementation of a super partes DDM testbed. It evaluates the goodness of DDM approaches, of all kinds. In fact it supports both region and grid based approaches, and it may support other different methods still unknown too. It uses three factors to rank them: execution time, memory and distance from the optimal solution. A prearranged set of instances is already available, but we also allow the creation of instances with user-provided parameters. This is how this thesis is structured. We start introducing what DDM and HLA are and what do they do in details. Then in the first chapter we describe the state of the art, providing an overview of the most well known resolution approaches and the pseudocode of the most interesting ones. The third chapter describes how the testbed we implemented is structured. In the fourth chapter we expose and compare the results we got from the execution of four approaches we have implemented. The result of the work described in this thesis can be downloaded on sourceforge using the following link: https://sourceforge.net/projects/ddmtestbed/. It is licensed under the GNU General Public License version 3.0 (GPLv3).
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
L’obiettivo di questa tesi è approfondire le competenze sulle funzionalità sviluppate nei sistemi SCADA/EMS presenti sul mercato, così da conoscerne le potenzialità offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale è possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati è orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni d’interesse per l’utente, così da poterle reintrodurre in fase di progettazione della nuova base dati. L’infrastruttura finale di questa nuova funzionalità si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. L’utilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantità d’informazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP
Resumo:
Il presente elaborato descrive l’attività di progetto svolta durante il periodo di tirocinio presso la business unit “automotive technologies” della Robert Bosch GmbH: la Robert Bosch GmbH Branch in Italy che ha sede a Torino, e che si configura come fornitore di componenti per l’industria automotive. La funzione logistica è l’ufficio in cui si è svolta l’esperienza di tirocinio, che si è sviluppato nell’ambito del progetto di Container Management System. In particolare, è stato analizzato il sistema di gestione dei Returnable Packaging relativi ai componenti che vengono forniti agli stabilimenti dei clienti localizzati in Italia. L’elaborato è composto da due parti: una parte teorica e una parte pratica. La parte teorica espone gli strumenti teorici sui quali si fondano i contenuti sviluppati nella parte pratica. La parte pratica è volta a descrivere l’attività di progetto da un punto di vista strettamente operativo. Il primo capitolo illustra i motivi che hanno determinato l’avvio del progetto. Sono poi messi in evidenza quali sono gli obiettivi intermedi e finali che si intendono raggiungere, declinandoli in termini di organizzazione del lavoro. Sono qui esposte le basi teoriche del metodo utilizzato e della disciplina a cui si fa riferimento. Viene inoltre dato spazio alla trattazione di alcuni topic nell’ambito dei Returnable Packaging, approfondendo l’argomento per il settore automotive. Il secondo capitolo descrive la struttura organizzativa, i settori di business e le attività svolte dal gruppo Robert Bosch GmbH nel mondo e in Italia. Viene dato particolare rilievo alla sede di Torino ed alla divisione logistica di quest’ultima, in modo tale da descrivere il contesto entro il quale si sviluppa il progetto. Il capitolo presenta infine gli attori che operano nella catena logistica analizzata, descrivendone le attività svolte e caratterizzando la rete logistica studiata al fine di definire i confini entro i quali si sviluppa il progetto. Il terzo capitolo presenta l’analisi effettuata sul caso in esame, descrivendone le modalità operative per ciascuna fase. Il quarto capitolo presenta delle osservazioni sull’analisi effettuata, la validazione tecnico econimica delle soluzioni proposte e le considerazioni conclusive.
Resumo:
Questo elaborato di tesi è nato con l'esigenza di sviluppare un nuovo modulo per la stima di variabili energetiche da inserire nel software On.Energy, per dare la possibilità a tutti gli utilizzatori di capire quanto i valori osservati nella realtà si discostino da un modello teorico appositamente creato, e fornire quindi un ulteriore strumento di analisi per mantenere sotto controllo il sistema nell'ottica del miglioramento continuo. Il risultato sarà uno strumento che verrà provato in via sperimentale sugli stabilimenti di due aziende leader in Italia in settori produttivi largamente differenti (Amadori - alimentare, Pfizer - farmaceutico), ma accomunati dalle esigenze di monitorare, analizzare e efficientare i consumi energetici.
Resumo:
In 2005, Wetland Studies and Solutions, Inc. (WSSI) installed an extensive Low Impact Development (LID) stormwater management system on their new office site in Gainesville, Virginia. The 4-acre site is serviced by a network of LID components: permeable pavements (two proprietary and one gravel type), bioretention cell / rain garden, green roof, vegetated swale, rainwater harvesting and drip irrigation, and slow-release underground detention. The site consists of heavy clay soils, and the LID components are mostly integrated by a series of underdrain pipes. A comprehensive monitoring system has been designed and installed to measure hydrologic performance throughout the LID, underdrained network. The monitoring system measures flows into and out of each LID component independently while concurrently monitoring rainfall events. A sensitivity analysis and laboratory calibration has been performed on the flow measurement system. Field data has been evaluated to determine the hydrologic performance of the LID features. Finally, hydrologic models amenable to compact, underdrained LID sites have been reviewed and recommended for future modeling and design.
Resumo:
The Carrabassett Valley Sanitary District in Carrabassett Valley, Maine has utilized both a forest spray irrigation system and a Snowfluent™ system for the treatment of their wastewater effluent. This study was designed to evaluate potential changes in soil properties after approximately 20 years of treatment in the forested spray irrigation site and three years of treatment in the field Snowfluent™ site. In addition, grass yield and composition were evaluated on the field study sites. After treatment with effluent or Snowfluent™, soils showed an increase in soil exchangeable Ca, Mg, Na, and K, base saturation, and pH. While most constituents were higher in treated soils, available P was lower in treated soils compared to the controls. This difference was attributed to higher rates of P mineralization from soil organic matter due to an irrigation effect of the treatment, depleting available P pools despite the P addition with the treatment. Most of the differences due to treatment were greatest at the surface and diminished with depth. Depth patterns in soil properties mostly reflected the decreasing influence of organic matter and its decomposition products with depth as evidenced by significantly higher total C in the surface compared to lower horizons. There were decreasing concentrations of total N, and exchangeable or extractable Ca, Mg, Na, K, Mn, Zn, and P with depth. In addition, there was decreasing BS with depth, driven primarily by declining exchangeable Ca and Mg. Imgation with Snowfluent™ altered the chemical composition of the grass on the site. All element concentrations were significantly higher in the grass foliage except for Ca. The differences were attributed to the additional nutrients and moisture derived from the Snowfluent™. The use of forest spray imgation and Snowfluent™ as a wastewater treatment strategy appears to work well. The soil and vegetation were able to retain most of the applied nutrients, and do not appear to be moving toward saturation. Vegetation management may be a key tool for managing nutrient accumulation on the grass sites as the system ages.