9 resultados para 280108 Database Management
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
L'elaborato tratta la progettazione e la costruzione di un database, mediante l'utilizzo di un Database Management System (DBMS), correlato a una interfaccia GIS, con l'obiettivo di ottenere una panoramica del sistema della mobilità del Comune di Bologna. I software che si utilizzano sono QGIS e PostgreSQL, entrambi open source. Si descrive nel dettaglio la fase di raccolta e selezione dei file da inserire nel database, riguardanti la mobilità, i trasporti e le infrastrutture viarie, la maggior parte dei quali provenienti dagli uffici del Comune di Bologna. In seguito si mostra la fase di realizzazione del database e si effettuano interrogazioni sui dati inseriti, per ottenere nuove informazioni che descrivono la mobilità e l'accessibilità urbana. L'analisi della tesi si focalizza verso la valutazione dell'accessibilità alle modalità sostenibili, quali trasporto pubblico e modalità non motorizzate (mobilità ciclistica e pedonale). In questo modo si crea uno strumento per individuare punti di forza e criticità del sistema della mobilità.
Resumo:
A partire dagli anni ’70, il modello di sviluppo legato alla crescita economica ha cominciato ad essere messo in discussione ed è iniziato ad emergere un nuovo modello basato sulla sostenibilità, nel quale lo sviluppo non è solo economico, ma anche sociale ed ambientale, e che tiene conto non solo dei bisogni attuali ma anche di quelli futuri. Al fine di analizzare in maniera scientifica queste problematiche, nel corso dei decenni successivi sono state create delle metodologie utili a quantificare l’impatto ambientale legato al ciclo di vita dei prodotti, in modo tale da individuare dei miglioramenti da implementare nelle fasi critiche individuate. Una delle metodologie più diffuse è quella del Life Cycle Assessment (LCA), la quale quantifica i flussi di materia ed energia appartenenti ad un ciclo di vita di un prodotto e ne valuta gli impatti ambientali. L’obiettivo dell’analisi LCA elaborata in questa tesi è valutare lo scenario as-is di produzione delle cassette a sponde abbattibili utilizzate nella filiera dell’ortofrutta di CPR System, ma anche valutare scenari alternativi ad esso ed identificare possibilità di migliorare il modo in cui vengono prodotte le cassette, in modo da facilitare il raggiungimento di specifici obiettivi di performance ambientali, sempre più necessari nell’attuale panorama industriale. Partendo dalla progettazione di un database e dalla raccolta dati del sistema aziendale analizzato, l’elaborato descrive la modellizzazione del ciclo di vita attraverso il software SimaPro e delle fasi eseguite per individuare le criticità principali e valutare scenari alternativi per ridurre l’impatto delle cassette a sponde abbattibili prodotte.
Resumo:
Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.
Resumo:
Analisi di prestazioni di un database costruito con MongoDB e uno con Mysql residenti su due macchine virtuali uguali configurate appositamente per i test di inserimento, interrogazione e eliminazione.
Resumo:
Nella tesi, inizialmente, viene introdotto il concetto di Big Data, descrivendo le caratteristiche principali, il loro utilizzo, la provenienza e le opportunità che possono apportare. Successivamente, si sono spiegati i motivi che hanno portato alla nascita del movimento NoSQL, come la necessità di dover gestire i Big Data pur mantenendo una struttura flessibile nel tempo. Inoltre, dopo un confronto con i sistemi tradizionali, si è passati al classificare questi DBMS in diverse famiglie, accennando ai concetti strutturali sulle quali si basano, per poi spiegare il funzionamento. In seguito è stato descritto il database MongoDB orientato ai documenti. Sono stati approfonditi i dettagli strutturali, i concetti sui quali si basa e gli obbiettivi che si pone, per poi andare ad analizzare nello specifico importanti funzioni, come le operazioni di inserimento e cancellazione, ma anche il modo di interrogare il database. Grazie alla sue caratteristiche che lo rendono molto performante, MonogDB, è stato utilizzato come supporto di base di dati per la realizzazione di un applicazione web che permette di mostrare la mappa della connettività urbana.
Resumo:
This project is about retrieving data in range without allowing the server to read it, when the database is stored in the server. Basically, our goal is to build a database that allows the client to maintain the confidentiality of the data stored, despite all the data is stored in a different location from the client's hard disk. This means that all the information written on the hard disk can be easily read by another person who can do anything with it. Given that, we need to encrypt that data from eavesdroppers or other people. This is because they could sell it or log into accounts and use them for stealing money or identities. In order to achieve this, we need to encrypt the data stored in the hard drive, so that only the possessor of the key can easily read the information stored, while all the others are going to read only encrypted data. Obviously, according to that, all the data management must be done by the client, otherwise any malicious person can easily retrieve it and use it for any malicious intention. All the methods analysed here relies on encrypting data in transit. In the end of this project we analyse 2 theoretical and practical methods for the creation of the above databases and then we tests them with 3 datasets and with 10, 100 and 1000 queries. The scope of this work is to retrieve a trend that can be useful for future works based on this project.
Resumo:
L’elaborato si apre presentando il concetto di Pavement Managemet System (PMS), un modello di gestione degli interventi di manutenzione che le pavimentazioni di una rete stradale dovranno subire nel corso del tempo. Uno dei punti di forza del Pavement Management System, è costituito dalla diretta comparazione tra i costi delle strategie programmate e i relativi benefici, che consente di scegliere l’alternativa più efficace. Nel secondo capitolo viene descritto il catasto stradale, strumento di fondamentale importanza per la gestione del patrimonio stradale e per il funzionamento del Pavement Management System. Esso infatti è l’elemento di collegamento tra la sicurezza e la programmazione della manutenzione. Il terzo capitolo espone il caso di studio del quartiere di Campo di Marte del Comune di Firenze. L’elemento di partenza di questo capitolo è il database dei sinistri stradali, il quale aiuta ad individuare alcune carenze della sovrastruttura che potrebbero essere causa di disagi o addirittura di incidenti. Dall’analisi si possono quindi dedurre utili indicazioni sul tipo di interventi che si rendono necessari per garantire la sicurezza e sulle priorità degli interventi stessi. Successivamente vengono descritte le modalità di rilievo per il quartiere oggetto del caso di studio ed esposti i risultati. Questi, uniti a quelli degli indici di stato prestazionali, danno vita alla pianificazione degli interventi di manutenzione necessari. Il quarto ed ultimo capitolo contiene i piani di manutenzione, con la relativa catalogazione degli interventi di manutenzione e riabilitazione. Questi vengono pianificati con l’ausilio dei risultati provenienti dai rilievi e dagli indici di stato prestazionali. Infine vengono presentati a titolo di esempio, tre casi reali di piano operativo degli interventi sulle pavimentazioni di strade appartenenti al quartiere di Campo di Marte.
Resumo:
Tsunamis are rare events. However, their impact can be devastating and it may extend to large geographical areas. For low-probability high-impact events like tsunamis, it is crucial to implement all possible actions to mitigate the risk. The tsunami hazard assessment is the result of a scientific process that integrates traditional geological methods, numerical modelling and the analysis of tsunami sources and historical records. For this reason, analysing past events and understanding how they interacted with the land is the only way to inform tsunami source and propagation models, and quantitatively test forecast models like hazard analyses. The primary objective of this thesis is to establish an explicit relationship between the macroscopic intensity, derived from historical descriptions, and the quantitative physical parameters measuring tsunami waves. This is done first by defining an approximate estimation method based on a simplified 1D physical onshore propagation model to convert the available observations into one reference physical metric. Wave height at the coast was chosen as the reference due to its stability and independence of inland effects. This method was then implemented for a set of well-known past events to build a homogeneous dataset with both macroseismic intensity and wave height. By performing an orthogonal regression, a direct and invertible empirical relationship could be established between the two parameters, accounting for their relevant uncertainties. The target relationship is extensively tested and finally applied to the Italian Tsunami Effect Database (ITED), providing a homogeneous estimation of the wave height for all existing tsunami observations in Italy. This provides the opportunity for meaningful comparison for models and simulations, as well as quantitatively testing tsunami hazard models for the Italian coasts and informing tsunami risk management initiatives.