941 resultados para Sistemi multiagente, Artefatti, Coordinazione basata su tuple, ReSpecT
Resumo:
L'elaborato tratta dell'evoluzione dei sistemi di raccolta dati geografici e mappatura grazie all'utilizzo delle tecnologie informatiche e di come sia cambiato il loro utilizzo nel corso del tempo e l'utenza che ne fa uso. Viene anche trattata in maniera tecnica la struttura che compone uno di questi sistemi per permettere l'interazione via web con una mappa digitale. Si effettuano inoltre ipotesi su possibili sviluppi futuri di tali tecnologie.
Resumo:
Siamo ormai abituati a vivere in un mondo pieno di dispositivi intelligenti ed un sistema domotico deve essere facilmente integrato con essi. L'obbiettivo di questa tesi è di estendere con il concetto di transducer il prototipo di Home Manager, applicazione per la gestione di una casa intelligente che sfrutta la tecnologia TuCSoN. I vantaggi di questa scelta sono molteplici: permettendo al media di coordinazione di gestire le interazioni fra gli agenti e l'ambiente, si separano i problemi implementativi da quelli coordinativi, guadagnando anche un sistema più facilmente ispezionabile, con componenti sostituibili e manutenibili. Dopo un'introduzione alla domotica, all'architettura Butlers e all'infrastruttura TuCSoN, pilastri su cui è basato Home Manager, si passerà ad una fase di analisi dello stato attuale del prototipo, per comprendere dove e perché andare a introdurre il concetto di transducer. Seguiranno poi le fasi di progettazione e, infine, di implementazione di questa tecnologia in Home Manager.
Resumo:
In questa tesi si revisiona l'architettura di TuCSoN on Cloud. Sono trattati i problemi riguardanti la gestione dei nodi TuCSoN su un cloud simulato su Cloudify; ovvero come sono memorizzati i vari tuple centre per ogni utente. É inoltre trattato il problema della concorrenza e della sicurezza, ovvero di come é gestita la password dell'utente.
Resumo:
In questa tesi sono stati introdotti e studiati i Big Data, dando particolare importanza al mondo NoSQL, approfondendo MongoDB, e al mondo del Machine Learning, approfondendo PredictionIO. Successivamente è stata sviluppata un'applicazione attraverso l'utilizzo di tecnologie web, nodejs, node-webkit e le tecnologie approfondite prima. L'applicazione utilizza l'interpolazione polinomiale per predirre il prezzo di un bene salvato nello storico presente su MongoDB. Attraverso PredictionIO, essa analizza il comportamento degli altri utenti consigliando dei prodotti per l'acquisto. Infine è stata effetuata un'analisi dei risultati dell'errore prodotto dall'interpolazione.
Resumo:
La diatomea presa in esame in questo studio è Phaeodactylum tricornutum, diatomea marina con simmetria pennata. L’interesse commerciale verso Phaeodactylum tricornutum nasce dal suo alto contenuto di acidi grassi polinsaturi (PUFA), tra cui troviamo alcuni omega 3, come l’acido eicosapentaenoico (EPA) e l’acido docosaesaenoico (DHA) e dalla quantità del polisaccaride di riserva prodotto, il β-1,3 glucano crisolaminarina. E’stata studiata la capacità dei β-1,3 glucani, in particolare della laminarina, di inibire l’attacco cellulare da parte di alcuni batteri dannosi per la salute umana. Anche i pigmenti accessori di questa diatomea in particolare il β-carotene (appartenente ai caroteni) e la fucoxantina (appartenente alle xantofille) possono essere impiegati nella nutraceutica. Negli studi svolti precedentemente sull’effetto di fattori ambientali sulla composizione di questa specie, è stata presa in considerazione solo la produzione di lipidi e non è mai stato seguito contemporaneamente l’andamento di lipidi e polisaccaridi: questo progetto di tesi prevede la valutazione della possibilità di ottenere colture di P. tricornutum ad alto contenuto sia polisaccaridico sia lipidico per applicazioni industriali. Tutto il lavoro di tesi si è svolto presso l’azienda Micoperi Blue Growth (MBG), nello stabilimento di Ortona (CH) in due fasi: nella prima fase l’esperimento è stato condotto in batch su piccola scala e la crescita e la composizione di P. tricornutum sono state seguite in due diversi terreni di coltura: uno ricco in azoto, denominato N, per mezzo del quale si è voluta incrementare la crescita e la biomassa ed uno a ridotto contenuto di azoto, denominato N/3, per indurre la produzione di lipidi e polisaccaridi. Ne è stata seguita la crescita per mezzo di misure di assorbanza, peso secco, pH, conta cellulare, determinazione dei macronutrienti ed è stata analizzata la composizione biochimica con determinazione dei composti polisaccaridici totali, determinazione qualitativa dei polisaccaridi, determinazione della clorofilla a, valutazione quantitativa e qualitativa dei lipidi. E' stato notato che la condizione con un contenuto polisaccaridico e lipidico maggiore è quella con un ridotto contenuto di azoto. Con la seconda fase si è voluto verificare la riproducibilità su larga scala di quanto notato nel primo esperimento in sistemi chiusi industriali. E’stata avviata una monocoltura di Phaeodactylum tricornutum in fotobioreattore (PBR) da 70L in semicontinuo e ne è stata monitorata la crescita misurando assorbanza, peso secco, pH, quantità di macronutrienti nel terreno; la composizione biochimica è stata valutata determinando i polisaccaridi totali e la loro composizione qualitativa, le proteine totali, i lipidi totali e la composizione qualitativa. In conclusione con questo lavoro si è visto il terreno migliore per la produzione di polisaccaridi e lipidi e le tempistiche di produzione in Phaeodactylum tricornutum, e in aggiunta, abbiamo dimostrato che sia contenuti che tempistiche sono riproducubili in un sistema industriale chiuso per produrre biomassa ad alto valore commerciale.
Resumo:
L’utilizzo delle biomasse rappresenta oggi una delle vie più interessanti da percorrere nell’ambito di una chimica industriale maggiormente sostenibile, alternativa alla chimica tradizionale basata sulle risorse fossili. I carboidrati sono i costituenti maggioritari della biomassa e potrebbero rappresentare un’alternativa ideale al petrolio per la produzione dei building-blocks, molecole di partenza per lo sviluppo della filiera produttiva della chimica. Fra i building-blocks ottenibili dagli zuccheri vi è l’acido glucarico. I suoi usi sono molteplici ma suscita grande interesse soprattutto per la possibilità di essere utilizzato nella sintesi di diverse tipologie di polimeri. Attualmente la maggior parte dei metodi di sintesi di questa molecola prevedono l’utilizzo di ossidanti tossici o dannosi per l’ambiente come l’acido nitrico. Lo scopo di questo lavoro di tesi è stato lo studio di catalizzatori eterogenei per la sintesi di acido glucarico da D-glucosio utilizzando ossigeno puro come ossidante. Sono stati sintetizzati sistemi monometallici a base di oro e sistemi multimetallici contenenti oro ed altri metalli in lega. Tutti i catalizzatori sono stati preparati depositando i metalli sotto forma di nanoparticelle su carbone attivo. Lo studio dei catalizzatori è stato focalizzato sull’individuazione dei metalli e delle condizioni di reazione ottimali che permettano di aumentare la selettività in acido glucarico. Gli studi condotti hanno portato alla conclusione che è possibile ottenere acido glucarico a partire da D-glucosio con rese fino al 35% utilizzando catalizzatori a base di oro in presenza di ossigeno. Attualmente l’acido glucarico viene prodotto solo su piccola scala ma ulteriori sviluppi in questa direzione potrebbero aprire la strada allo sviluppo di un nuovo processo industriale per la sintesi di acido glucarico sostenibile sia da un punto di vista economico che ambientale.
Resumo:
La presente tesi tratta dello sviluppo e progettazione di sistemi di automazione applicati a Macchine Industriali. Il documento è strutturato come segue: - Capitolo 1: Nel primo capitolo viene illustrata la parte embrionale del progetto, ovvero vengono descritte le prime fasi di natura tecnica nelle quali tramite interazioni con il Cliente vengono acquisite le specifiche,i dati e le informazioni su cui basare il Progetto; - Capitolo 2: Nel secondo capitolo viene mostrato come procedere, una volta recepite le informazioni di carattere generale del progetto desiderato, con lo studio e ricerca della soluzione ingegneristica più idonea in accordo con le Normative vigenti; - Capitolo 3: Nel terzo capitolo viene chiarito lo sviluppo vero e proprio del progetto e la ricerca dei componenti e degli apparati da prevedere; - Capitolo 4: Nel quarto capitolo viene illustrata una delle parti più delicate e importanti del progetto, la direzione lavori, insieme allo svolgimento dei test finali e alla redazione della documentazione finale da consegnare al Cliente; - Conclusioni. Dove ogni capitolo è diviso in due parti, la prima è introduttiva, dove vengono forniti gli strumenti teorici per la trattazione del problema, mentre la seconda è sperimentale e fa riferimento a un progetto da me sviluppato riguardante un Revamping di un sistema di riempimento sacchi.
Resumo:
L'elasticità è un concetto fondamentale nell'ambito del cloud computing, ma propone problemi di coordinazione che, se non compresi nella loro natura, rischiano di renderla inefficiente. Tramite il concetto di “elasticità consapevole della coordinazione” (coordination-aware elasticity), in questa tesi si discute come si possa espandere il linguaggio per l’elasticità cloud SYBL in modo che possa eseguire alcune funzioni elastiche tramite il linguaggio di coordinazione ReSpecT.
Resumo:
Database preferences La tesi passa in rassegna i principali approcci alla formulazione e risoluzione di query su database relazionali con preferenza, di tipo sia qualitativo sia quantitativo. Verranno inoltre studiati gli algoritmi per il calcolo di skyline.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.
Resumo:
Lo scopo del progetto Bird-A è di mettere a disposizione uno strumento basato su ontologie per progettare un'interfaccia web collaborativa di creazione, visualizzazione, modifica e cancellazione di dati RDF e di fornirne una prima implementazione funzionante. La visione che sta muovendo la comunità del web semantico negli ultimi anni è quella di creare un Web basato su dati strutturati tra loro collegati, più che su documenti. Questo modello di architettura prende il nome di Linked Data ed è basata sulla possibilità di considerare cose, concetti, persone come risorse identificabili tramite URI e di poter fornire informazioni e descrivere collegamenti tra queste risorse attraverso l'uso di formati standard come RDF. Ciò che ha però frenato la diffusione di questi dati strutturati ed interconnessi sono stati gli alti requisiti di competenze tecniche necessarie sia alla loro creazione che alla loro fruizione. Il progetto Bird-A si prefigge di semplificare la creazione e la fruizione di dati RDF, favorendone la condivisione e la diffusione anche fra persone non dotate di conoscenze tecniche specifiche.
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.
Resumo:
Relazione completa delle scelte progettuali e implementative di un applicativo ad agenti sviluppato nel contesto Smart Home. Essa contiene un veloce riassunto dello scenario e dello stato attuale dell'applicazione, unitamente a un'introduzione sul middeware su cui si appoggia l'applicativo (TuCSoN). Segue quindi un'analisi delle scelte di modeling delle entita da gestire, le metodologie di supporto alla persistenza e un'ampia descrizione su come gli agenti comunichino tra loro e attraverso quali mezzi (centri di tuple). Quindi viene analizzata l'implementazione partendo dalle scelte implementative sino ad esaminare cosa avviene nel programma a seguito dell'interazione con l'utente. Infine le conclusioni a cui si e giunti e due appendici sulla terminologia e le classi presenti nel prototipo attuale.
Resumo:
Il focus di questo elaborato è sui sistemi di recommendations e le relative caratteristiche. L'utilizzo di questi meccanism è sempre più forte e presente nel mondo del web, con un parallelo sviluppo di soluzioni sempre più accurate ed efficienti. Tra tutti gli approcci esistenti, si è deciso di prendere in esame quello affrontato in Apache Mahout. Questa libreria open source implementa il collaborative-filtering, basando il processo di recommendation sulle preferenze espresse dagli utenti riguardo ifferenti oggetti. Grazie ad Apache Mahout e ai principi base delle varie tipologie di recommendationè stato possibile realizzare un applicativo web che permette di produrre delle recommendations nell'ambito delle pubblicazioni scientifiche, selezionando quegli articoli che hanno un maggiore similarità con quelli pubblicati dall'utente corrente. La realizzazione di questo progetto ha portato alla definizione di un sistema ibrido. Infatti l'approccio alla recommendation di Apache Mahout non è completamente adattabile a questa situazione, per questo motivo le sue componenti sono state estese e modellate per il caso di studio. Siè cercato quindi di combinare il collaborative filtering e il content-based in un unico approccio. Di Apache Mahout si è mantenuto l'algoritmo attraverso il quale esaminare i dati del data set, tralasciando completamente l'aspetto legato alle preferenze degli utenti, poichè essi non esprimono delle valutazioni sugli articoli. Del content-based si è utilizzata l'idea del confronto tra i titoli delle pubblicazioni. La valutazione di questo applicativo ha portato alla luce diversi limiti, ma anche possibili sviluppi futuri che potrebbero migliorare la qualità delle recommendations, ma soprattuto le prestazioni. Grazie per esempio ad Apache Hadoop sarebbe possibile una computazione distribuita che permetterebbe di elaborare migliaia di dati con dei risultati più che discreti.