141 resultados para Data mining, Business intelligence, Previsioni di mercato


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono analizzati gli algoritmi DistributedSolvingSet e LazyDistributedSolvingSet e verranno mostrati dei risultati sperimentali relativi al secondo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nowadays, more and more data is collected in large amounts, such that the need of studying it both efficiently and profitably is arising; we want to acheive new and significant informations that weren't known before the analysis. At this time many graph mining algorithms have been developed, but an algebra that could systematically define how to generalize such operations is missing. In order to propel the development of a such automatic analysis of an algebra, We propose for the first time (to the best of my knowledge) some primitive operators that may be the prelude to the systematical definition of a hypergraph algebra in this regard.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d'oggi una pratica molto comune è quella di eseguire ricerche su Google per cercare qualsiasi tipo di informazione e molte persone, con problemi di salute, cercano su Google sintomi, consigli medici e possibili rimedi. Questo fatto vale sia per pazienti sporadici che per pazienti cronici: il primo gruppo spesso fa ricerche per rassicurarsi e per cercare informazioni riguardanti i sintomi ed i tempi di guarigione, il secondo gruppo invece cerca nuovi trattamenti e soluzioni. Anche i social networks sono diventati posti di comunicazione medica, dove i pazienti condividono le loro esperienze, ascoltano quelle di altri e si scambiano consigli. Tutte queste ricerche, questo fare domande e scrivere post o altro ha contribuito alla crescita di grandissimi database distribuiti online di informazioni, conosciuti come BigData, che sono molto utili ma anche molto complessi e che necessitano quindi di algoritmi specifici per estrarre e comprendere le variabili di interesse. Per analizzare questo gruppo interessante di pazienti gli sforzi sono stati concentrati in particolare sui pazienti affetti dal morbo di Crohn, che è un tipo di malattia infiammatoria intestinale (IBD) che può colpire qualsiasi parte del tratto gastrointestinale, dalla bocca all'ano, provocando una grande varietà di sintomi. E' stato fatto riferimento a competenze mediche ed informatiche per identificare e studiare ciò che i pazienti con questa malattia provano e scrivono sui social, al fine di comprendere come la loro malattia evolve nel tempo e qual'è il loro umore a riguardo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work we will discuss about a project started by the Emilia-Romagna Regional Government regarding the manage of the public transport. In particular we will perform a data mining analysis on the data-set of this project. After introducing the Weka software used to make our analysis, we will discover the most useful data mining techniques and algorithms; and we will show how these results can be used to violate the privacy of the same public transport operators. At the end, despite is off topic of this work, we will spend also a few words about how it's possible to prevent this kind of attack.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è quello di mettere a confronto due mondi: quello dei DBMS relazionali e quello dei DBMS a grafo, con lo scopo di comprendere meglio quest'ultimo. Perciò, sono state scelte le due tecnologie che meglio rappresentano i loro mondi: Oracle per gli RDBMS e Neo4j per i Graph DBMS. I due DBMS sono stati sottoposti ad una serie di interrogazioni atte a testare le performance al variare di determinati fattori, come la selettività, il numero di join che Oracle effettua, etc. I test svolti si collocano nell'ambito business intelligence e in particolare in quello dell’analisi OLAP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Valutazione dell’opportunità di fare trading elettrico nell’area CEE. Progetto di analisi di mercato, per l’azienda “C.U.Ra”, operatore del mercato elettrico, sull’opportunità di fare business energetico in Polonia e paesi CEE. Attività sviluppate: •Benchmarking dei mercati evoluti dell’energia •Analisi del mercato elettrico italiano •Analisi dell’attività di trading elettrico: Profit & Loss, Risk Management. •Analisi di Fattibilità •Analisi di sensibilità (What-if): variazione parametrica dell’opportunità • Avviamento del business e partnership con società di consulting polacca

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è approfondire le competenze sulle funzionalità sviluppate nei sistemi SCADA/EMS presenti sul mercato, così da conoscerne le potenzialità offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale è possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati è orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni d’interesse per l’utente, così da poterle reintrodurre in fase di progettazione della nuova base dati. L’infrastruttura finale di questa nuova funzionalità si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. L’utilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantità d’informazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Megalopoli Bogotà si è svelata una realtà articolata e complessa, ricca di contraddizioni che convivono in un'apparente armonia. Le difformità di situazioni legate alla città sono causa ed effetto di una sorta di dualismo urbano in cui ogni aspetto sembra trovare la sua ragione nella propria antitesi. La stessa contraddizione è stata letta nel tessuto urbano in cui il rigido schema a griglia, proprio delle fondazioni coloniali, si è mostrato irregolare a fronte di limiti topografici del territorio, di espansioni urbane incontrollate, e di realtà intrinseche proprie di isole urbane. Questo è stato il punto di partenza per la comprensione della realtà urbana, ed attraverso una ricerca che è, mano a mano, scesa di scala, si è tentato di interpretare e risolvere le criticità emerse. A partire da queste considerazioni si è configurato un metaprogetto con la volontà di ricucire la struttura urbana interrotta, attraverso un sistema di segni urbani, in cui l'identità della griglia è stata adottata come principio per la ricomposizione delle parti. Grazie al conoscimento della città è stato possibile identificare un'area di studio, nel punto di convergenza dei vari tessuti è emerso un settore che non ha saputo, o potuto, rispondere all'esigenza di riconnettere le diverse parti, sfuggendo così alla struttura urbana e presentandosi come elemento di negazione della griglia. Grazie allo svoglimento della tesi all'estero è stato possibile comprendere, tramite una ricerca svolta in archivio, come l'area si fosse configurata nel tempo, e tramite ripetuti sopraluoghi percepire peculiarità e criticità del luogo; infine, la presenza della Piazza di Mercato Paloquemao, elemento emblematico a livello sia urbano sia sociale, ha condotto la ricerca sino allo studio dello spazio pubblico nella città. Si è giunti, in questo percorso, alla progettazione di una nuova centralità per l'area, in supporto all'esistente Piazza di Mercato, con l'ambizione di poter risolvere le problematiche di un luogo costituito da convergenze urbane.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato consiste nella traduzione di un un dépliant informativo sul mercato dei farmaci biotecnologici in Germania estratto dal sito ufficiale del gruppo vfa.bio. La traduzione è stata svolta simulandone la commissione per le seguenti finalità: informare i destinatari italiani che operano nello stesso tipo di mercato sul lavoro del gruppo vfa.bio; attirare finanziamenti esteri; informare e sensibilizzare il destinatario sulle scelte da operare in politica sanitaria a livello europeo per un miglior sviluppo di questo settore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mia esperienza con Microsoft SharePoint ha inizio durante il tirocinio svolto presso una famosa azienda bolognese tra fine settembre e metà novembre 2014. Durante questi due mesi ho avuto il piacere di confrontarmi con questa piattaforma e di studiarla allo scopo di carpire quali possano essere i vantaggi e gli svantaggi per un'impresa una volta che decidesse di investire su di essa. La decisione di scrivere una tesi su SharePoint e di aumentare la mia conoscenza su di esso, ha preso piede dentro di me in seguito allo sviluppo di una piccola applicazione d'esempio. Infatti in sole due settimane e senza scrivere una riga di codice, se non qualche piccolo script di css, sono stato in grado di realizzare un piccolo gestionale per uno studio di rappresentanza di abbigliamento. Grazie alla realizzazione di questo applicato ho potuto riscontrare l'effettiva forza del tool. Difatti, SharePoint, possiede un livello d'astrazione così elevato da offrire una o più soluzioni predefinite ad una vasta gamma di problemi di business, riducendo conseguentemente i tempi ed i costi di sviluppo. A questa motivazione si è aggiunta anche quella derivante dal fatto che la piattaforma viene usata da molte realtà aziendali di elevata importanza. A tal proposito una di queste mi ha concesso l'autorizzazione a sottoporle un'intervista.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio ed analisi delle principali tecniche in ambito di Social Data Analysis. Progettazione e Realizzazione di una soluzione software implementata con linguaggio Java in ambiente Eclipse. Il software realizzato permette di integrare differenti servizi di API REST, per l'estrazione di dati sociali da Twitter, la loro memorizzazione in un database non-relazionale (realizzato con MongoDB), e la loro gestione. Inoltre permette di effettuare operazioni di classificazione di topic, e di analizzare dati complessivi sulle collection di dati estratti. Infine permette di visualizzare un albero delle "ricondivisioni", partendo da singoli tweet selezionati, ed una mappa geo-localizzata, contenente gli utenti coinvolti nella catena di ricondivisioni, e i relativi archi di "retweet".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La pubblicazione si incentra sulla descrizione di un programma generico di disambiguazione di IRI e letterali, in Linked Open Data, fortemente configurabile, quindi applicabile in più contesti. CALID è la sigla di "Customizable Application for Literal and IRI's Disambiguation". Esso è stato creato per risolvere la disambiguazione degli autori di pubblicazioni scientifiche, e in questo articolo viene descritta la parte progettuale, il modo in cui si utilizza e i valori di performance e precisione ottenuti testandolo su diversi datasets.