37 resultados para data warehouse tuning aggregato business intelligence performance
Resumo:
Una gestione, un’analisi e un’interpretazione efficienti dei big data possono cambiare il modello lavorativo, modificare i risultati, aumentare le produzioni, e possono aprire nuove strade per l’assistenza sanitaria moderna. L'obiettivo di questo studio è incentrato sulla costruzione di una dashboard interattiva di un nuovo modello e nuove prestazioni nell’ambito della Sanità territoriale. Lo scopo è quello di fornire al cliente una piattaforma di Data Visualization che mostra risultati utili relativi ai dati sanitari in modo da fornire agli utilizzatori sia informazioni descrittive che statistiche sulla attuale gestione delle cure e delle terapie somministrate. Si propone uno strumento che consente la navigazione dei dati analizzando l’andamento di un set di indicatori di fine vita calcolati a partire da pazienti oncologici della Regione Emilia Romagna in un arco temporale che va dal 2010 ad oggi.
Resumo:
La presente Tesi di Laurea Specialistica considera, partendo da un'analisi della normativa vigente e delle procedure aziendali interne, il Sistema di Gestione Integrato Qualità Sicurezza Ambiente (SGI QSA) di HERA SpA con particolare attenzione alle tematiche relative alla Prevenzione e Protezione sul luogo di lavoro in riferimento al Testo Unico sulla sicurezza (D.Lgs 81/2008) . Nello specifico, l'elaborato si basa sull'esperienza maturata durante cinque mesi di stage effettuati presso l'ufficio "Servizio Prevenzione e Protezione" della Struttura Operativa Territoriale (SOT) Bologna. Durante la mia permanenza in HERA SpA, ho avuto modo di osservare e prendere parte alle attività quotidianamente svolte sia in ufficio che presso gli impianti dislocati nel territorio della provincia di Bologna con particolare riguardo alla raccolta, gestione e fruibilità dei dai inerenti la sicurezza dei luoghi di lavoro. Nell'ambito dello stage, ho avuto anche la possibilità , estremamente formativa, di prendere visione dei processi, delle tecnologie e delle modalità operative sottostanti l'erogazione di servizi da parte di una Multiutility; acquisire consapevolezza e know how in merito alle energie messe in campo per effettuare attività quali la raccolta e lo smaltimento di rifiuti piuttosto che rendere disponibile alle utenze la fornitura di acqua e gas. Ritengo che questo possa darmi un valore aggiunto sia da un punto di vista professionale che da un punto di vista umano. Scopo primario di questa trattazione è effettuare l'istantanea di un'azienda complessa e in rapida evoluzione come HERA a partire della Salute e Sicurezza dei Lavoratori con l'obiettivo di indicare le attività eseguite durante lo stage e il contributo fornito allo sviluppo e al mantenimento del SGS (Sistema di Gestione per la Salute e la sicurezza). Per meglio evidenziare la diversa natura delle informazioni riportate, l'elaborato risulta diviso in due parti fondamentali: La I PARTE riguarda lo studio della normativa che regola il settore con particolare riferimento al TUSL Testo Unico per la Sicurezza sui Luoghi di Lavoro (norma vigente in Italia) e allo standard britannico OHSAS 18001 a cui possono fare riferimento le organizzazioni che intendono certificare il proprio sistema di gestione in materia di sicurezza. In seguito si andranno ad analizzare le norme ISO 9001e ISO14001 che riguardano rispettivamente la possibilità di certificare il proprio sistema di gestione in merito a Qualità del servizio e tutela dell'Ambiente. Infine saranno proposte alcune riflessioni riguardanti la necessità di sviluppare un sistema di gestione integrato e certificato che permetta di avere una visione unitaria di Qualità Sicurezza e Ambiente. Nella II PARTE si entrerà nel merito delle attività svolte dall'ufficio Prevenzione e Protezione: a partire dalle procedure aziendali che fungono da punto di contatto fra gli obblighi normativi e la necessità di regolare l'operatività dei lavoratori, saranno descritte le mansioni che mi sono state affidate e le attività svolte durante lo stage.
Resumo:
Oggi piu' che mai e' fondamentale essere in grado di estrarre informazioni rilevanti e conoscenza dal grande numero di dati che ci possono arrivare da svariati contesti, come database collegati a satelliti e sensori automatici, repository generati dagli utenti e data warehouse di grandi compagnie. Una delle sfide attuali riguarda lo sviluppo di tecniche di data mining per la gestione dell’incertezza. L’obiettivo di questa tesi e' di estendere le attuali tecniche di gestione dell’incertezza, in particolare riguardanti la classificazione tramite alberi decisionali, in maniera tale da poter gestire incertezza anche sull’attributo di classe.
Resumo:
L’obiettivo di questa tesi è approfondire le competenze sulle funzionalità sviluppate nei sistemi SCADA/EMS presenti sul mercato, così da conoscerne le potenzialità offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale è possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati è orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni d’interesse per l’utente, così da poterle reintrodurre in fase di progettazione della nuova base dati. L’infrastruttura finale di questa nuova funzionalità si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. L’utilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantità d’informazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP
Resumo:
Classic group recommender systems focus on providing suggestions for a fixed group of people. Our work tries to give an inside look at design- ing a new recommender system that is capable of making suggestions for a sequence of activities, dividing people in subgroups, in order to boost over- all group satisfaction. However, this idea increases problem complexity in more dimensions and creates great challenge to the algorithm’s performance. To understand the e↵ectiveness, due to the enhanced complexity and pre- cise problem solving, we implemented an experimental system from data collected from a variety of web services concerning the city of Paris. The sys- tem recommends activities to a group of users from two di↵erent approaches: Local Search and Constraint Programming. The general results show that the number of subgroups can significantly influence the Constraint Program- ming Approaches’s computational time and e�cacy. Generally, Local Search can find results much quicker than Constraint Programming. Over a lengthy period of time, Local Search performs better than Constraint Programming, with similar final results.
Resumo:
In recent years, Deep Learning techniques have shown to perform well on a large variety of problems both in Computer Vision and Natural Language Processing, reaching and often surpassing the state of the art on many tasks. The rise of deep learning is also revolutionizing the entire field of Machine Learning and Pattern Recognition pushing forward the concepts of automatic feature extraction and unsupervised learning in general. However, despite the strong success both in science and business, deep learning has its own limitations. It is often questioned if such techniques are only some kind of brute-force statistical approaches and if they can only work in the context of High Performance Computing with tons of data. Another important question is whether they are really biologically inspired, as claimed in certain cases, and if they can scale well in terms of "intelligence". The dissertation is focused on trying to answer these key questions in the context of Computer Vision and, in particular, Object Recognition, a task that has been heavily revolutionized by recent advances in the field. Practically speaking, these answers are based on an exhaustive comparison between two, very different, deep learning techniques on the aforementioned task: Convolutional Neural Network (CNN) and Hierarchical Temporal memory (HTM). They stand for two different approaches and points of view within the big hat of deep learning and are the best choices to understand and point out strengths and weaknesses of each of them. CNN is considered one of the most classic and powerful supervised methods used today in machine learning and pattern recognition, especially in object recognition. CNNs are well received and accepted by the scientific community and are already deployed in large corporation like Google and Facebook for solving face recognition and image auto-tagging problems. HTM, on the other hand, is known as a new emerging paradigm and a new meanly-unsupervised method, that is more biologically inspired. It tries to gain more insights from the computational neuroscience community in order to incorporate concepts like time, context and attention during the learning process which are typical of the human brain. In the end, the thesis is supposed to prove that in certain cases, with a lower quantity of data, HTM can outperform CNN.