101 resultados para Cloud Computing, Linux, portabilità, open source, gestione risorse.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La quantità di dati che vengono generati e immagazzinati sta aumentando sempre più grazie alle nuove tecnologie e al numero di utenti sempre maggiore. Questi dati, elaborati correttamente, permettono quindi di ottenere delle informazioni di valore strategico che aiutano nell’effettuare decisioni aziendali a qualsiasi livello, dalla produzione fino al marketing. Sono nati soprattutto negli ultimi anni numerosi framework proprietari e open source che permettono l'elaborazione di questi dati sfruttando un cluster. In particolare tra i più utilizzati e attivi in questo momento a livello open source troviamo Hadoop e Spark. Obiettivo di questa tesi è realizzare un modello di Spark per realizzare una funzione di costo che sia non solo implementabile all’interno dell’ottimizzatore di Spark SQL, ma anche per poter effettuare delle simulazioni di esecuzione di query su tale sistema. Si è quindi studiato nel dettaglio con ducumentazione e test il comportamento del sistema per realizzare un modello. I dati ottenuti sono infine stati confrontati con dati sperimentali ottenuti tramite l'utilizzo di un cluster. Con la presenza di tale modello non solo risulta possibile comprendere in maniera più approfondita il reale comportamento di Spark ma permette anche di programmare applicazioni più efficienti e progettare con maggiore precisione sistemi per la gestione dei dataset che sfruttino tali framework.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi concerne quella che è una generalizzata tendenza verso la trasformazione digitale dei processi di business. Questa evoluzione, che implica l’utilizzo delle moderne tecnologie informatiche tra cui il Cloud Computing, le Big Data Analytics e gli strumenti Mobile, non è priva di insidie che vanno di volta in volta individuate ed affrontate opportunamente. In particolare si farà riferimento ad un caso aziendale, quello della nota azienda bolognese FAAC spa, ed alla funzione acquisti. Nell'ambito degli approvvigionamenti l'azienda sente la necessità di ristrutturare e digitalizzare il processo di richiesta di offerta (RdO) ai propri fornitori, al fine di consentire alla funzione di acquisti di concentrarsi sull'implementazione della strategia aziendale più che sull'operatività quotidiana. Si procede quindi in questo elaborato all'implementazione di un progetto di implementazione di una piattaforma specifica di e-procurement per la gestione delle RdO. Preliminarmente vengono analizzati alcuni esempi di project management presenti in letteratura e quindi viene definito un modello per la gestione del progetto specifico. Lo svolgimento comprende quindi: una fase di definizione degli obiettivi di continuità dell'azienda, un'analisi As-Is dei processi, la definizione degli obiettivi specifici di progetto e dei KPI di valutazione delle performance, la progettazione della piattaforma software ed infine alcune valutazioni relative ai rischi ed alle alternative dell'implementazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è incentrata sulla revisione del classico modello di infrastruttura Cloud. Le motivazioni sono da ricercare nelle condizioni operative reali della maggior parte dei dispositivi connessi alla rete attualmente. Si parla di ambiente ostile riferendosi a network popolate da molti dispositivi dalle limitate caratteristiche tecniche e spesso collegati con canali radio, molto più instabili delle connessioni cablate. Allo scenario va ad aggiungersi la necessità crescente di mobilità che limita ulteriormente i vantaggi derivanti dall'utilizzo dell’infrastruttura Cloud originale. La trattazione propone il modello Edge come estensione del Cloud. Esso ne amplia il ventaglio di utilizzo, favorendo aree di applicazione che stanno acquisendo maggiore influenza negli ultimi periodi e che richiedono una revisione delle vecchie infrastrutture Cloud, dettata dalle caratteristiche stringenti che necessitano per un'operatività soddisfacente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro sviluppato deriva dalla creazione, in sede di tirocinio, di un piccolo database, creato a partire dalla ricerca dei dati fino alla scelta di informazioni di rilievo e alla loro conseguente archiviazione. L’obiettivo dell’elaborato è rappresentato dalla volontà di ampliare quella conoscenza basilare posseduta sul mondo dell’informazione dal punto di vista gestionale. Infatti, considerando lo scenario odierno, si può affermare che lo studio del cliente attraverso delle informazioni rilevanti, di vario tipo, è una delle conoscenze fondamentali nel mondo dell’ingegneria gestionale. Il metodo di studio utilizzato è basato sulla comprensione delle diverse tipologie di dati presenti nel mondo aziendale e, di conseguenza, al loro legame con il mondo del web e soprattutto con i metodi di archiviazione più moderni e più utilizzati oggi sia dalle aziende, che non dai privati stessi; le piattaforme cloud. L’elaborato si suddivide in tre argomenti differenti ma strettamente collegati tra loro; la prima parte tratta di come l’informazione più basilare vada raccolta ed analizzata, la sezione centrale è legata al tema chiave dell’internet come mezzo di archiviazione e non più solo come piattaforma di ricerca del dato, mentre nel capitolo finale viene chiarito il concetto di cloud computing, comodo veloce ed efficiente, considerato da qualche anno il punto d’incontro fra i primi due argomenti. Nello specifico si andranno a presentare alcuni di applicazione reale del cloud da parte di aziende come Amazon, Google e Facebook, multinazionali che ad oggi sono riuscite a fare dell’archiviazione e della manipolazione dei dati, a scopi industriali, una delle loro fonti di guadagno. Il risultato è rappresentato da una panoramica sul funzionamento e sulle tecniche di utilizzo dell’informazione, partendo dal dato più irrilevante fino ad arrivare ai database condivisi utilizzati, se non addirittura controllati, dalle più rinomate aziende nazionali ed internazionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente elaborato di tesi si esporranno le fasi di costruzione ed i risultati del modello idraulico del sistema di distribuzione idrica della città di Cesena, comprendente tutta l’area cittadina e la zona di pianura a nord-ovest adiacente. Il caso di studio è stato reso disponibile dal gestore del Servizio idrico integrato nel territorio Hera S.p.A. Il modello numerico è stato implementato utilizzando il programma Infoworks® WS di HR Wallingford per la progettazione e gestione delle reti idriche. La realizzazione di un modello idraulico richiede la conoscenza topologica della rete e del suo funzionamento, nonché informazioni sul consumo idrico, fondamentali per la determinazione della domanda idrica. Essa comprende il consumo idropotabile delle utenze e la perdita idrica. Per le elaborazioni sono stati utilizzati i programmi open source QGis e RStudio. La variabilità del consumo è stata rappresentata attraverso una curva costruita sulla base del bilancio idrico della rete, mentre quella della perdita attraverso un pattern basato sul metodo del Minimum Night Flow. Compiuta la prima simulazione su un periodo di 7 giorni e ottenuti i primi risultati, si sono rese necessarie delle operazioni di calibrazione eseguite confrontando i dati risultanti dal modello con quelli misurati sul campo. Uno dei vantaggi di un modello numerico è quello di poter indagare le grandezze idrauliche in ogni punto della rete. È stato, infatti, possibile creare vere e proprie mappe tematiche che illustrano la variazione delle grandezze di interesse al variare dello spazio e del tempo. Un altro vantaggio è quello di poter prevedere il comportamento della rete in seguito a delle modifiche. Si è potuto, infatti, applicare lo strumento modellistico ad un’ipotesi di distrettualizzazione del sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main objective of my thesis work is to exploit the Google native and open-source platform Kubeflow, specifically using Kubeflow pipelines, to execute a Federated Learning scalable ML process in a 5G-like and simplified test architecture hosting a Kubernetes cluster and apply the largely adopted FedAVG algorithm and FedProx its optimization empowered by the ML platform ‘s abilities to ease the development and production cycle of this specific FL process. FL algorithms are more are and more promising and adopted both in Cloud application development and 5G communication enhancement through data coming from the monitoring of the underlying telco infrastructure and execution of training and data aggregation at edge nodes to optimize the global model of the algorithm ( that could be used for example for resource provisioning to reach an agreed QoS for the underlying network slice) and after a study and a research over the available papers and scientific articles related to FL with the help of the CTTC that suggests me to study and use Kubeflow to bear the algorithm we found out that this approach for the whole FL cycle deployment was not documented and may be interesting to investigate more in depth. This study may lead to prove the efficiency of the Kubeflow platform itself for this need of development of new FL algorithms that will support new Applications and especially test the FedAVG algorithm performances in a simulated client to cloud communication using a MNIST dataset for FL as benchmark.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi proposto è volto allo studio delle architetture Serverless, strutture che permettono agli sviluppatori di comporre facilmente applicazioni distribuite su molti servizi all’interno di un cloud, senza la necessità di gestire il server. Più nello specifico sono state studiate le FaaS (Function-as-a-Service), un modello di elaborazione cloud basato su eventi in cui il codice viene distribuito in container gestiti dalla piattaforma, e successivamente eseguito on-demand. A seguito di una prima parte di ricerca dello stato dell'arte, l'attenzione si è spostata sulla ricerca di vulnerabilità nel contesto del servizio OpenFaaS, un framework open-source che permette agli sviluppatori di distribuire facilmente funzioni e microservizi. Il deployment è stato fatto faasd, quest’ultimo è una semplificazione di OpenFaaS, usa le stesse componenti e lo stesso ecosistema di OpenFaaS ma usa Containerd al posto di Kubernetes. Dopo una prima fase di installazione e log-in il lavoro si è concentrato nelle varie metodologie di penetration test, nonché di ricerca delle vulnerabilità di sicurezza associate a tale paradigma. In informatica, il penetration test è il processo operativo di analisi o valutazione della sicurezza di un sistema o di una rete, simulando l'attacco di un potenziale utente malintenzionato. Nell'ultima fase sono stati condotti vari tentativi di attacco al sistema OpenFaaS tramite l'ausilio di alcuni tool. Inizialmente è stata fatta un'analisi della rete e del traffico tramite tool quali NMAP e Wireshark, per comprenderne meglio la struttura e come faasd creasse le funzioni a partire dai container. Infine, tramite OpenFaaS sono state create delle funzioni per testare la sicurezza e l'affidabilità di quest'ultima. In particolare, le funzioni indagano all'interno dei container al fine di comprendere la possibilità di eseguire code injection e rilevare possibili dati sensibili nel filesystem dell'immagine Docker così come nelle variabili d'ambiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca oggetto del presente elaborato di tesi persegue fini di lotta ai cambiamenti climatici e promozione delle energie rinnovabili, in linea con i diciassette Obiettivi per lo Sviluppo Sostenibile definiti dall’Organizzazione delle Nazioni Unite nel 2015 a causa dell’incombente emergenza ambientale in atto; inoltre individua risorse che possono risultare utili in situazioni di crisi energetica come quella iniziata nel 2022. L’obiettivo dell’elaborato è l’individuazione dei bare soils o “suoli nudi”, ovvero terreni lasciati senza copertura nei mesi che intercorrono tra un raccolto e la semina successiva, presenti nella parte pianeggiante dell’Emilia Romagna nell’anno 2021. È stata eseguita una ricerca introduttiva sulle politiche agricole inerenti i cambiamenti climatici e sull’uso del suolo nell’area di studio. Nel procedimento seguente sono stati utilizzati immagini e dati satellitari a libero accesso, rilevati dai satelliti Sentinel-2 del programma Copernicus dell’Unione Europea. Per mezzo di software open source, sono state identificate le superfici di suolo nudo tramite calcolo degli indici di vegetazione Normalized Difference Vegetation Index (NDVI) e selezione delle aree con valori dell’indice idonei per 4 mesi consecutivi; sono state create mappe tematiche con le posizioni dei terreni, sono state ricavate statistiche sulla loro estensione e sono state effettuate validazioni dei risultati. Secondo i calcoli, nei 2 periodi più promettenti i suoli nudi coprivano rispettivamente circa il 4% e il 25% dell’area di studio. I terreni individuati sono stati poi utilizzati come input per una simulazione di un loro utilizzo sostenibile. Infatti, quando abbastanza estesi e liberi per un tempo sufficiente, possono essere utilizzati per colture intercalari come il sorgo, volte ad ottenere biomasse adatte alla produzione di biocarburanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ballerina è un linguaggio open-source, cloud-native, progettato, quindi, con l'intento di alleggerire il carico dello sviluppo e dell'integrazione associato alle applicazioni aziendali. Questo linguaggio semplifica il modo in cui un programma comunica con la rete, che di solito avviene tramite un API (Application Program Interface). Ballerina tenta di creare un sistema integrato, riunendo i concetti, le idee e gli strumenti essenziali di integrazione di un sistema distribuito e offrendo un ambiente concorrente e sicuro per supportare lo sviluppo di API.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato di tesi discute del progetto di integrazione tra ROS 2, framework open-source per lo sviluppo di applicazioni robotiche, e VxWorks, sistema operativo in tempo reale (RTOS), attraverso l’utilizzo di container OCI compliant su VxWorks. L’integrazione è stata svolta all’interno dello stack software di IMA (Industria Macchine Automatiche). Il progetto ha dunque integrato ROS 2 Humble e VxWorks 7 permettendo l’utilizzo di costrutti software di ROS 2 su dei container in esecuzione a livello User su VxWorks. Successivamente è stata creata una applicazione di pick and place con un robot antropomorfo (Universal Robots Ur5e) avvalendosi di ROS 2 Control, framework per l’introduzione e gestione di hardware e controllori, e MoveIt 2, framework per incorporare algoritmi di motion-planning, cinematica, controllo e navigazione. Una volta progettata l’applicazione, il sistema è stato integrato all’interno dell’architettura di controllo di IMA. L’architettura a container VxWorks di IMA è stata estesa per il caso ROS 2, la comunicazione tra campo e applicazione ROS 2 è passata tramite il master EtherCAT e il modulo WebServer presenti nell’architettura IMA. Una volta eseguito il container ROS 2 posizione e velocità dei servo motori sono stati inviati tramite al WebServer di IMA sfruttando la comunicazione VLAN interna. Una volta ricevuto il messaggio, il WebServer si è occupato di trasferirlo al master EtherCAT che in aggiunta si è occupato anche di ottenere le informazioni sullo stato attuale del robot. L’intero progetto è stato sviluppato in prima battuta in ambiente di simulazione per validarne l’architettura. Successivamente si è passati all’installazione in ambiente embedded grazie all’ausilio di IPC sui quali è stato testato l’effettivo funzionamento dell’integrazione all’interno dell’architettura IMA.