922 resultados para Replicazione Dati Ridondanza Sistemi Distribuiti


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi riguarda lo studio e l'impiego di architetture neurali profonde (nello specifico stacked denoising auto-encoder) per la definizione di un modello previsionale di serie temporali. Il modello implementato è stato applicato a dati industriali riguardanti un impianto fotovoltaico reale, per effettuare una predizione della produzione di energia elettrica sulla base della serie temporale che lo caratterizza. I risultati ottenuti hanno evidenziato come la struttura neurale profonda contribuisca a migliorare le prestazioni di previsione di strumenti statistici classici come la regressione lineare multipla.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo della tesi è proporre e motivare l'adozione di un modello computazionale Agent-Based nell'ambito del Self-Management di malattie croniche in un sistema di mobile Health. Viene quindi affrontata in maniera approfondita la tematica del mobile Health, settore in grande espansione che vede l'introduzione massiccia dei dispositivi mobili (smartphone, tablet, PDA) in ambito sanitario, e quella del Self-Managment di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica dei vari approcci computazionali sviluppati. Successivamente vengono presentate le peculiarità dei modelli computazionali risultati dalle ricerche in letteratura strumenti innovati nell'ambito. Nel caso di studio viene adottata la tecnica di modellazione Agent-Based per sviluppare un modello a supporto di malati cronici affetti da diabete mellito di tipo 1. Con la successiva implementazione sulla piattaforma di simulazione MASON, vengono eseguiti diversi esperimenti per dimostrare la fattibilità dell’approccio adottato nell'ambito del Self-Management di malattie croniche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Poiché nell’ultimo decennio i dispositivi mobile assumono un ruolo sempre più determinante nello svolgimento della vita stessa, nel corso del tempo si sono ricercate e sviluppate app per facilitare le più svariate operazioni quotidiane. Visto la vastità del mercato degli smartphone, nel tempo sono stati sviluppati vari sistemi operativi in grado di governare queste piattaforme. Per una azienda, tuttavia, gestire i costi di implementazione di una stessa app in ambienti differenti risulta più oneroso che gestire i costi di una sola in grado di operare nei diversi sistemi operativi. Quest’ultimo tipo di app viene comunemente denominato app multipiattaforma. Un modo per implementare questo genere di applicazioni vede come strumento di utilizzo Visual Studio, noto IDE. Nel caso specifico Visual Studio ha integrato il progetto Apache Cordova per le creazione di applicativi multipiattaforma. In questo elaborato di tesi tramite i due strumenti appena introdotti si sono sviluppate due differenti app, al fine di valutarne le performance in termini di tempo. La prima app propone la risoluzione di un noto problema di calcolo combinatorio conosciuto con il nome di Knapsack, ovvero il problema dello zaino. La seconda cerca invece di digitalizzare una semplice espressione matematica contenuta in un’immagine e di fornirne quindi il risultato. Dai dati ottenuti si possono operare confronti per determinare la validità dello strumento di sviluppo, mettendo in luce anche possibili evoluzioni di queste due app.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il focus di questo elaborato è sui sistemi di recommendations e le relative caratteristiche. L'utilizzo di questi meccanism è sempre più forte e presente nel mondo del web, con un parallelo sviluppo di soluzioni sempre più accurate ed efficienti. Tra tutti gli approcci esistenti, si è deciso di prendere in esame quello affrontato in Apache Mahout. Questa libreria open source implementa il collaborative-filtering, basando il processo di recommendation sulle preferenze espresse dagli utenti riguardo ifferenti oggetti. Grazie ad Apache Mahout e ai principi base delle varie tipologie di recommendationè stato possibile realizzare un applicativo web che permette di produrre delle recommendations nell'ambito delle pubblicazioni scientifiche, selezionando quegli articoli che hanno un maggiore similarità con quelli pubblicati dall'utente corrente. La realizzazione di questo progetto ha portato alla definizione di un sistema ibrido. Infatti l'approccio alla recommendation di Apache Mahout non è completamente adattabile a questa situazione, per questo motivo le sue componenti sono state estese e modellate per il caso di studio. Siè cercato quindi di combinare il collaborative filtering e il content-based in un unico approccio. Di Apache Mahout si è mantenuto l'algoritmo attraverso il quale esaminare i dati del data set, tralasciando completamente l'aspetto legato alle preferenze degli utenti, poichè essi non esprimono delle valutazioni sugli articoli. Del content-based si è utilizzata l'idea del confronto tra i titoli delle pubblicazioni. La valutazione di questo applicativo ha portato alla luce diversi limiti, ma anche possibili sviluppi futuri che potrebbero migliorare la qualità delle recommendations, ma soprattuto le prestazioni. Grazie per esempio ad Apache Hadoop sarebbe possibile una computazione distribuita che permetterebbe di elaborare migliaia di dati con dei risultati più che discreti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La quantità di dati che vengono generati e immagazzinati sta aumentando sempre più grazie alle nuove tecnologie e al numero di utenti sempre maggiore. Questi dati, elaborati correttamente, permettono quindi di ottenere delle informazioni di valore strategico che aiutano nell’effettuare decisioni aziendali a qualsiasi livello, dalla produzione fino al marketing. Sono nati soprattutto negli ultimi anni numerosi framework proprietari e open source che permettono l'elaborazione di questi dati sfruttando un cluster. In particolare tra i più utilizzati e attivi in questo momento a livello open source troviamo Hadoop e Spark. Obiettivo di questa tesi è realizzare un modello di Spark per realizzare una funzione di costo che sia non solo implementabile all’interno dell’ottimizzatore di Spark SQL, ma anche per poter effettuare delle simulazioni di esecuzione di query su tale sistema. Si è quindi studiato nel dettaglio con ducumentazione e test il comportamento del sistema per realizzare un modello. I dati ottenuti sono infine stati confrontati con dati sperimentali ottenuti tramite l'utilizzo di un cluster. Con la presenza di tale modello non solo risulta possibile comprendere in maniera più approfondita il reale comportamento di Spark ma permette anche di programmare applicazioni più efficienti e progettare con maggiore precisione sistemi per la gestione dei dataset che sfruttino tali framework.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi consiste nello studiare e sviluppare servizi multimediali in sistemi di CrowdSensing, nello specifico si vuole sviluppare un sistema che permetta il trasferimento da client a server di file multimediali come il video nel sistema Participact dell'universita di Bologna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Sentiment analysis, nata nell'ambito dell’informatica, è una delle aree di ricerca più attive nel campo dell’analisi del linguaggio naturale e si è diffusa ampiamente anche in altri rami scientifici come ad esempio le scienze sociali, l’economia e il marketing. L’enorme diffusione della sentiment analysis coincide con la crescita dei cosiddetti social media: siti di commercio e recensioni di prodotti, forum di discussione, blog, micro-blog e di vari social network. L'obiettivo del presente lavoro di tesi è stato quello di progettare un sistema di sentiment analysis in grado di rilevare e classificare le opinioni e i sentimenti espressi tramite chat dagli utenti della piattaforma di video streaming Twitch.tv. Per impostare ed organizzare il lavoro, giungendo quindi alla definizione del sistema che ci si è proposti di realizzare, sono stati utilizzati vari modelli di analisi in particolare le recurrent neural networks (RNNLM) e sistemi di word embedding (word2vec),nello specifico i Paragraph Vectors, applicandoli, dapprima, su dati etichettati in maniera automatica attraverso l'uso di emoticon e, successivamente, su dati etichettati a mano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il contributo ripercorre la relazione uomo-castagno partendo dalle ultime glaciazioni per arrivare ai giorni nostri, con una crescente attenzione per le contrade insubriche, dove la castanicoltura raggiunse livelli straordinari di sviluppo. Dopo una sintesi critica sui primi indizi di coltivazione, si esamina la castanicoltura nel mondo greco e romano fino all’introduzione della coltivazione del castagno nell’area insubrica. Particolare attenzione è riservata al periodo aureo tardomedievale della castanicoltura nella Svizzera italiana, comprovato con dati linguistici, con l’analisi dei sistemi produttivi (composizione varietale, tecniche di essiccazione) e delle consuetudini locali. Si indagano in seguito le ragioni e le tappe storiche del declino della castanicoltura tradizionale. Si conclude discutendo la situazione attuale e le prospettive future dei castagneti a Sud delle Alpi, confrontati con alcuni problemi incalzanti come l’invecchiamento delle ceppaie nei cedui abbandonati e la comparsa di un insidioso parassita, il cinipide galligeno.