400 resultados para distribuzione
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
L'azienda IMA S.p.a., leader nel settore delle macchine automatiche per il packging, intende approfondire la conoscenza sui processi di manifattura additiva con l'obiettivo futuro di riuscire a realizzare il 5% di componenti che compongono le macchine della gamma dell'azienda mediante l'utilizzo di queste nuove tecnologie. Il raggiungimento di tale obiettivo comporta un radicale cambio di mentalità rispetto al passato e la creazione di nuove figure professionali e procedure di progettazione dei componenti totalmente nuove ed innovative. In questo contesto, vengono in aiuto i metodi numerici di ottimizzazione topologica. Noti carichi, vincoli, materiali e geometria d'ingombro del particolare, questi metodi vanno a determinare l'ottimale distribuzione del materiale per ottenere un incremento delle prestazioni del componente, andando a collocare il materiale solo in corrispondenza delle zone dove è strettamente necessario. L'ottimizzazione topologica strutturale, ottenimento della massima rigidezza specifica, è stato proprio l'argomento di questo elaborato. E' stato impiegato il software COMSOL Multiphysics 5.2 per implementare il problema di ottimizzazione. Inizialmente abbiamo affrontato problemi semplici, i cui risultati sono reperibili in letteratura. Dopo aver validato la correttezza della nostra implementazione, abbiamo infine esteso il problema a un caso di studio di un componente di una macchina IMA. Il caso di studio riguardava un componente che esegue l'estrazione della fustella piana dal magazzino in cui l'intero pacco fustelle viene riposto dall'operatore. I risultati ottenuti su questo componente sono stati positivi ottenendo un miglioramento della rigidezza specifica di quest'ultimo. L'obiettivo primario dell'elaborato è stato quello di realizzare una panoramica dei metodi di ottimizzazione topologica e riuscire ad applicare questi ad un caso concreto per valutare se tale tipo di progettazione potesse essere adeguato alle esigenze di IMA. L'obiettivo è stato largamente raggiunto.
Resumo:
Il presente lavoro tratta la stabilità del fronte di scavo, rinforzato con barre di consolidamento ed interessato da drenaggi in avanzamento, di gallerie sotto falda in rocce tenere o terreni. Tale studio è stato sviluppato dal progetto di Tesi attraverso l’analisi all’equilibrio limite che approssima il fronte di scavo con un rettangolo e considera un meccanismo di rottura composto da un cuneo, a tergo del fronte, caricato da un prisma. Il metodo descritto consente di tenere conto dell’effetto stabilizzante delle barre, mediante una distribuzione della pressione di supporto non uniforme. Nel caso di gallerie sotto falda, lo stesso metodo permette inoltre di considerare l’effetto destabilizzante dei gradienti idraulici. Sono state ricavate soluzioni analitiche per la valutazione della stabilità, ed implementate successivamente nel software di analisi numerica MATLAB. Dalle analisi condotte è emerso che il numero minimo di barre per garantire la stabilità del fronte di scavo è in molti casi elevato e risulta impossibile da porre in opera in terreni scarsamente coesivi o in gallerie sotto elevati battenti d’acqua. Per risolvere questa situazione si può prevedere l’inserimento di drenaggi in avanzamento, con lo scopo di diminuire i gradienti idraulici nei pressi del fronte della galleria. Il modello che descrive il nuovo andamento dei carichi idraulici, considerando la presenza di dreni, è stato realizzato con il software commerciale agli elementi finiti COMSOL. Una volta determinati gli andamenti dei carichi idraulici, sono stati condotti studi parametrici sull’effetto dei dreni combinato con gli elementi di rinforzo. Dopo tali analisi sono stati ricavati nomogrammi adimensionali che tengano conto della presenza contemporanea delle barre e dei dreni. Tali diagrammi costituiscono uno strumento utile e valido per la progettazione del rinforzo del fronte di scavo. Infine sono stati realizzati confronti fra casi di studio reali e risultati ottenuti dal modello.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
Big data e turismo è il tema principale di questa tesi: esamina l'utilizzo dei social media come mezzo di interazione tra turisti e albergatori, prendendo come riferimento la piattaforma di booking Expedia.com e come campione di hotel tutti gli hotel della penisola italiana. In particolare si vogliono studiare i due tipi di utenti che utilizzano questo tipo di piatta forma, ovvero turisti e albergatori. Dei turisti si vuole capire il loro livello di attività su social media, calcolando l'andamento delle recensioni postate; poi si passa ad uno studio della singola recensione e infine si è cercato di stabilire le preferenze dei turisti in base alle valutazioni. Anche per quanto riguarda l'altra tipologia di utenti, ovvero gli albergatori, si è voluto capire quanto utilizzino Expedia, studiando le risposte alle recensioni. Infine, tramite un confronto tra la distribuzione delle recensioni suddivise per lingua tra le varie regioni italiane, e i dati ENIT del turismo, si è voluto rilevare se vi e una correlazione tra recensioni e densità di turismo.
Resumo:
La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
Internet e il Web rappresentano una risorsa informativa immensa, utilizzabile anche per compiere indagini di mercato, soprattutto a fronte di nuovi fenomeni di consumo. Un caso emergente è rappresentato dai servizi di video streaming. La piattaforma presa in considerazione dal mio studio di analisi è Twitch, leader nel segmento di mercato dei video-giochi. Attraverso di essa milioni di follower seguono in tempo reali i comportamenti di gioco di migliaia di player, fra i quali i principali campioni mondiali di e-sports. La tesi ha esaminato, attraverso lo studio di fonti di letteratura e di mercato, le principali caratteristiche di relazione degli utenti. Su tale base è stato definito un campione attraverso uso delle API del sito, oggetto di studio finalizzato alla comprensione dei comportamenti di scelta da parte dei follower. Fra i vari esiti, emerge confermata la presenza e tutti i livelli di analisi della distribuzione power-law, tipica anche di Internet nel suoi complesso.
Resumo:
Ogni giorno vengono generati grandi moli di dati attraverso sorgenti diverse. Questi dati, chiamati Big Data, sono attualmente oggetto di forte interesse nel settore IT (Information Technology). I processi digitalizzati, le interazioni sui social media, i sensori ed i sistemi mobili, che utilizziamo quotidianamente, sono solo un piccolo sottoinsieme di tutte le fonti che contribuiscono alla produzione di questi dati. Per poter analizzare ed estrarre informazioni da questi grandi volumi di dati, tante sono le tecnologie che sono state sviluppate. Molte di queste sfruttano approcci distribuiti e paralleli. Una delle tecnologie che ha avuto maggior successo nel processamento dei Big Data, e Apache Hadoop. Il Cloud Computing, in particolare le soluzioni che seguono il modello IaaS (Infrastructure as a Service), forniscono un valido strumento all'approvvigionamento di risorse in maniera semplice e veloce. Per questo motivo, in questa proposta, viene utilizzato OpenStack come piattaforma IaaS. Grazie all'integrazione delle tecnologie OpenStack e Hadoop, attraverso Sahara, si riesce a sfruttare le potenzialita offerte da un ambiente cloud per migliorare le prestazioni dell'elaborazione distribuita e parallela. Lo scopo di questo lavoro e ottenere una miglior distribuzione delle risorse utilizzate nel sistema cloud con obiettivi di load balancing. Per raggiungere questi obiettivi, si sono rese necessarie modifiche sia al framework Hadoop che al progetto Sahara.
Resumo:
Uno degli aspetti più influenti sulla qualità chimica e biologica dell’acqua di laghi e invasi, caratteristico del bacino di Ridracoli, è rappresentato dalla stratificazione termica, un processo di formazione di volumi d’acqua a diversa densità che può verificarsi allorquando, in alcune circostanze e, nello specifico, durante la stagione estiva, si instauri una condizione stabile in cui l’acqua riscaldata dalla radiazione solare sovrasta quella più fredda e densa del fondo. Una delle conseguenze di tali variazioni termiche è che esse inducono cambiamenti nei livelli di ossigeno disciolto, favorendo l’instaurarsi di processi di degradazione anaerobica della materia organica e determinando la formazione di un chimismo ostile per l’attività biologica. I cicli stagionali, redox-dipendenti, di Ferro e Manganese tra la colonna d’acqua e i sedimenti sono caratteristici di questi ambienti ed una loro risospensione in forma disciolta è stato rilevato nell’ipolimnio dell’invaso di Ridracoli, stagionalmente anossico. Questo studio, collocato all’interno di un ampio progetto finanziato da Romagna Acque Società delle Fonti S.p.A. con la Facoltà di Scienze Ambientali – Campus di Ravenna ed il CNR-ISMAR, si è posto come obiettivo l’individuazione dei fattori che controllano la distribuzione e la mobilità degli elementi chimici all’interno del sistema acqua-sedimento dell’invaso di Ridracoli ed è articolato in tre diverse fasi: • Indagine della composizione chimica del sedimento; • Analisi ed interpretazione della composizione chimica delle acque interstiziali • Stima del flussi attraverso l’interfaccia acqua-sedimento mediante l’utilizzo di una camera bentica e l’applicazione della prima legge di Fick sulla diffusione. Al termine del lavoro è stato possibile ricostruire un quadro diagenetico generale contraddistinto da una deplezione degli accettori di elettroni principali (O2 e NO3-) entro i primi millimetri di sedimento, da un consumo immediato di SO42- e da una graduale riduzione degli ossidi di Mn (IV) e Fe (III), con formazione di gradienti negativi ed il rilascio di sostanze disciolte nella colonna d’acqua.