5 resultados para Business -- Data processing -- Management
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Data Distribution Management (DDM) is a core part of High Level Architecture standard, as its goal is to optimize the resources used by simulation environments to exchange data. It has to filter and match the set of information generated during a simulation, so that each federate, that is a simulation entity, only receives the information it needs. It is important that this is done quickly and to the best in order to get better performances and avoiding the transmission of irrelevant data, otherwise network resources may saturate quickly. The main topic of this thesis is the implementation of a super partes DDM testbed. It evaluates the goodness of DDM approaches, of all kinds. In fact it supports both region and grid based approaches, and it may support other different methods still unknown too. It uses three factors to rank them: execution time, memory and distance from the optimal solution. A prearranged set of instances is already available, but we also allow the creation of instances with user-provided parameters. This is how this thesis is structured. We start introducing what DDM and HLA are and what do they do in details. Then in the first chapter we describe the state of the art, providing an overview of the most well known resolution approaches and the pseudocode of the most interesting ones. The third chapter describes how the testbed we implemented is structured. In the fourth chapter we expose and compare the results we got from the execution of four approaches we have implemented. The result of the work described in this thesis can be downloaded on sourceforge using the following link: https://sourceforge.net/projects/ddmtestbed/. It is licensed under the GNU General Public License version 3.0 (GPLv3).
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Questo lavoro di ricerca studia il mercato digitale delle Start-Up italiane, valutando i passi del management nei vari cicli di vita aziendale. Dopo uno studio teorico sull'ecosistema italiano startup e il cambiamento dell'approccio scelto dal manager all'interno dell'azienda per arrivare al successo, è stato fatto un studio empirico con questionari e interviste. L'intento è capire in un team aziendale quali sono le figure da seguire e con che importanza. Quanto è fondamentale la figura di colui che organizza, media e detiene la responsabilità del lavoro finito nei tempi prestabiliti?
Resumo:
The Italian territory offers a wide range of treasures in the field of Cultural Assets. This is a highly relevant property, which needs an accurate management and preservation performed by appropriate tools, also giving attention to the maintenance and safeguard from risk factors. Nowadays the increasing development of new digital technologies, added by remarkable steps forward got by the subject of Geomatic makes possible an efficient integration among different techniques, helped also by spread of solutions to improve the data import-export and transmission between different devices. The main objective of this thesis is to experience the photogrammetric restitution implemented in a commercial software of digital photogrammetry, in order to generate a dense 3D model of the facade of the Basilica Sant'Apollinare Nuovo in Ravenna. The 1st Chapter, after a general introduction regarding the 3D survey of Cultural Heritage and some considerations linked to the use of digital photogrammetry in this field, is focused to analyze the case of stereoscopic and the monoscopic approach. In particular, it develops the theme of close-range photogrammetry. The 2nd Chapter, exposes the theme of digital images, from color theory until their appearing on the monitor. The 3rd Chapter, develops the case study of the Basilica di Sant'Apollinare Nuovo, the historical, architectural and religious of the same. Also, it is examined the issue of photogrammetry and laser scanning of the case study. The final part of the same chapter, treats the processing of data processing the software Agisoft PhotoScan, in order to generate, by means of Structure from Motion technique, a digital geometric 3D model of the Basilica Facade. The digital model has been scaled on the basis of measurements made on the field. With the software it was possible to accomplish the three phases of the photogrammetric data processing: internal orientation, exterior orientation and restitution.