881 resultados para Estrazione informazioni, analisi dati non strutturati, Web semantico, data mining, text mining, big data, open data, classificazione di testi.


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Raccolta e analisi dei dati relativi alla valutazione dell'accessibilità Web dei siti istituzionali delle Camere di Commercio Industria Artigianato e Agricoltura italiane.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Piattaforma di raccolta e analisi dei dati ambientali, raccolti da vari dispositivi. Server in node.js per ricevere e salvare i dati, client android per catturare i dati, client web per analizzare i dati attraverso una mappa e dei grafici.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

All’interno di questa tesi è stata affrontata la tematica della realizzazione di comuni- cazioni sicure, in modo da ottenere l'indipendenza di queste ultime dal canale utilizzato, con l'ausilio di strumenti in grado di fornire supporto per la creazione di applicativi orientati allo scambio di dati e messaggi, quali i linguaggi di programmazione Java e Jolie, il quale è basato sul precedente. Sono state inizialmente analizzate le principali caratteristiche e le problematiche più importanti che è necessario dover risolvere in modo da poter arrivare al risultato desiderato. Successivamente, è stato dato un ampio sguardo ad una delle scienze più applicate per risolvere i problemi tipici che affliggono questo tipo di comunicazioni, la crittografia. Sono stati elencati gli strumenti messi a disposizione ed il loro funzionamento. La crittografia viene poi applicata al protocollo SSL, il quale rappresenta la soluzione maggiormente diffusa, sia sul Web che in altri ambiti, per proteggere le informazioni personali che transitano tra gli end-point di una comunicazione. Sono state elencate le principali caratteristiche, alcuni cenni riguardanti la nascita e lo sviluppo ed è stato descritto il funzionamento di questo protocollo, soprattutto per quanto riguarda la sua fase preliminare, che è una delle parti che lo caratterizzano maggiormente. In seguito, è stata analizzata la soluzione fornita all’interno delle librerie del linguaggio Java per realizzare comunicazioni indipendenti dal mezzo di comunicazione che soddisfino le politiche dettate dal protocollo SSL. Questa soluzione è rappresentata dalla classe SSLEngine, che è quindi stata esaminata, a partire dal ciclo di vita e dall'inizializzazione, fino ad arrivare all'interazione all'interno di un applicazione. Quanto esplorato in precedenza viene poi applicato a Jolie, un linguaggio di programmazione basato sulle comunicazioni e sviluppato in Java, all'interno dell'Università di Bologna. Dopo uno sguardo generale alle sue caratteristiche è stata approfondita la gestione dei protocolli, e di conseguenza, l'introduzione di SSL all'interno di essi, realizzata tramite la classe SSLProtocol. Questa classe contiene ed implementa i concetti analizzati nel capitolo riguardante Java, adattandoli all'architettura ed alla progettazione pensata appositamente per Jolie; è stata quindi effettuata un'analisi del codice e della gestione della classe SSLEngine per realizzare comunicazioni sicure. Infine, per verificare l’effettivo funzionamento, sono stati creati due semplici casi d’uso per poter sfruttare i vantaggi offerti da Jolie, il quale è particolarmente indicato per la creazione di applicazioni orientate ai servizi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Allosaurus fragilis (Theropoda: Carnosauria) è tra i dinosauri del Giurassico Superiore meglio conosciuti grazie a numerosi scheletri rinvenuti a partire dal secolo scorso. Le collezioni del Museo Universitario Paleontologico del Dipartimento di Scienze Chimiche e Geologiche dell'Università di Modena e Reggio Emilia ospitano uno scheletro costituito da reperti originali provenienti dal Cleveland-Lloyd Dinosaur Quarry (Utah) ad oggi non descritto in dettaglio. Il temporaneo disallestimento dello scheletro per la realizzazione di una nuova struttura museale ha permesso di esaminare in dettaglio i singoli elementi scheletrici. La storia di come e quando il materiale sia giunto a Modena rimane incerta, e per questo lavoro si è raccolta tutta la documentazione storica per completare le informazioni relative all'esemplare. In questa tesi vengono inoltre descritti alcuni degli elementi più diagnostici al fine di verificare se lo scheletro rappresenta uno o più individui di Allosaurus fragilis, la specie più abbondante e meglio documentata del Cleveland-Lloyd Dinosaur Quarry. Per questo obiettivo le ossa sono state confrontate con esemplari di riferimento in letteratura e inquadrate all'interno del contesto tafonomico del sito di ritrovamento. Durante le fasi di studio, i reperti esaminati sono stati acquisiti come modelli tridimensionali ad alta risoluzione mediante tecniche fotogrammetriche. Questo per garantire fruibilità ai singoli elementi anche in seguito al riallestimento dello scheletro per fini espositivi. I dati raccolti in questa tesi, ed in particolare 1. l’analisi del contesto tafonomico e tassonomico del Cleveland-Lloyd Dinosaur Quarry; 2. il confronto morfometrico tra le ossa presenti a Modena e quelle descritte in letteratura, e 3. le caratteristiche specifiche dei reperti esaminati, permettono di chiarire numerosi aspetti legati alla storia del reperto e al numero di individui rappresentati dallo scheletro di Allosaurus fragilis del Museo di Modena.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Ricercare eventuali variazioni o trend nei fenomeni meteorologici è sempre stato uno degli obiettivi degli studi di ricerca. Il dibattito in letteratura evidenzia la difficoltà nell’individuare in maniera univoca un trend relativo agli eventi precipitativi. Nonostante la grande variabilità climatica, la diminuzione delle precipitazioni in inverno e primavera negli ultimi decenni, nel sud Europa e nella parte occidentale del bacino del Mediterraneo, è stata ampiamente confermata. Inoltre, è sempre più importante osservare come eventuali variazioni nelle precipitazioni possano influenzare variazioni di portata volumetrica di un fiume. Il presente studio ha l’obiettivo di individuare eventuali variazioni nelle precipitazioni e nel regime idraulico del bacino di Imola. Lo studio ha preso in considerazione gli eventi precipitativi dagli anni ’20 al 2014 sul bacino del Santerno, localizzato nelle aree montane centro orientali dell’Emilia-Romagna. Dopo aver effettuato il controllo qualità e di omogeneità sui dati ne è stata fatta un’analisi statistica da cui è risultato, in accordo con la letteratura, una diminuzione delle precipitazioni cumulate invernali e del numero di giorni piovosi annuali per alcune stazioni considerate. Attraverso l’uso del modello TOPKAPI, sono state ricostruite alcune variabili idrologiche, come la portata del fiume in una particolare sezione di chiusura, l’umidità del suolo, l’evapotraspirazione potenziale ed effettiva, così da poterne valutare i trend stagionali e annuali. Non è stata rilevata alcuna variazione sia nella portata massima e minima annuale che in quella oraria, mentre è stato identificato un aumento significativo nell’evapotraspirazione potenziale in tutte le stagioni ad eccezione dell’autunno e una diminuzione della saturazione del suolo in inverno e primavera. Infine, le analisi sulle precipitazioni aggregate hanno confermato i risultati ottenuti nella prima parte dello studio. Per concludere, nonostante siano stati evidenziati alcuni cambiamenti significativi nelle precipitazioni cumulate stagionali, non è stata riscontrata alcuna variazione apprezzabile della portata per la sezione di chiusura considerata.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi è il risultato dell’attività di tirocinio svolta presso Ecor Research, su una tematica proposta da un cliente, più precisamente Tetra Pak. Si progettano nuove soluzioni per un meccanismo estrattore di pacchetti preformati all’interno di un macchina automatica riempitrice di liquido per il confezionamento continuo in ambiente asettico. L’estrattore è posto in seguito all’organo che forma i pacchetti preformati e deve aumentare la velocità degli stessi in modo tale da permettere lo scarto dei danneggiati, in corrispondenza della massima produttività della macchina. Lo scarto avviene tramite uno scivolo che si frappone al moto del pacchetto nel caso esso sia danneggiato, non appena è avvenuta l’estrazione. Quindi, senza la presenza dell’estrattore, il sistema di scarto non ha una adeguata finestra temporale in cui agire. In seguito i pacchetti non danneggiati entrano nel successivo organo macchina dove vengono riferiti e distanziati per le successive lavorazioni. Le nuove soluzioni sono sviluppate su un certo formato di pacchetto, per il quale risultano disponibili spazi minori per l’implementazione dell’estrattore. Si è affrontato il problema costruendo un modello cinetostatico dell’estrattore, ricavando le specifiche di progetto attraverso contatti con il cliente e attraverso l’analisi della soluzione esistente. A causa dei limitati ingombri a disposizione per l’implementazione dell’estrattore, si divide il problema in due parti, progettando ed analizzando per ognuna un ampio ventaglio di soluzioni, tra le quali anche sistemi articolati, introducendo in seguito parametri di valutazione per scegliere le migliori. Si va poi a comporre le parti del problema a seconda delle proprie affinità ottenendo le soluzioni complete e scegliendo le più adatte al caso in esame. Infine si valuta la flessibilità delle soluzioni scelte verificando l’adattabilità ad un differente formato di pacchetto. Si individuano 2 soluzioni, tramite cinghie sincrone e quadrilatero articolato

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.