998 resultados para Documentazione installazione banco prova analisi dati
Resumo:
Il lavoro di tesi proposto è volto allo studio delle architetture Serverless, strutture che permettono agli sviluppatori di comporre facilmente applicazioni distribuite su molti servizi all’interno di un cloud, senza la necessità di gestire il server. Più nello specifico sono state studiate le FaaS (Function-as-a-Service), un modello di elaborazione cloud basato su eventi in cui il codice viene distribuito in container gestiti dalla piattaforma, e successivamente eseguito on-demand. A seguito di una prima parte di ricerca dello stato dell'arte, l'attenzione si è spostata sulla ricerca di vulnerabilità nel contesto del servizio OpenFaaS, un framework open-source che permette agli sviluppatori di distribuire facilmente funzioni e microservizi. Il deployment è stato fatto faasd, quest’ultimo è una semplificazione di OpenFaaS, usa le stesse componenti e lo stesso ecosistema di OpenFaaS ma usa Containerd al posto di Kubernetes. Dopo una prima fase di installazione e log-in il lavoro si è concentrato nelle varie metodologie di penetration test, nonché di ricerca delle vulnerabilità di sicurezza associate a tale paradigma. In informatica, il penetration test è il processo operativo di analisi o valutazione della sicurezza di un sistema o di una rete, simulando l'attacco di un potenziale utente malintenzionato. Nell'ultima fase sono stati condotti vari tentativi di attacco al sistema OpenFaaS tramite l'ausilio di alcuni tool. Inizialmente è stata fatta un'analisi della rete e del traffico tramite tool quali NMAP e Wireshark, per comprenderne meglio la struttura e come faasd creasse le funzioni a partire dai container. Infine, tramite OpenFaaS sono state create delle funzioni per testare la sicurezza e l'affidabilità di quest'ultima. In particolare, le funzioni indagano all'interno dei container al fine di comprendere la possibilità di eseguire code injection e rilevare possibili dati sensibili nel filesystem dell'immagine Docker così come nelle variabili d'ambiente.
Resumo:
Il fatto che il pensiero sia più rapido della comunicazione verbale o scritta è un concetto ormai consolidato. Ricerche recenti, però, si stanno occupando di sviluppare nuove tecnologie in grado di tradurre l’attività neurale in parole o testi in tempo reale. È proprio questo il campo delle Real-time Silent Speech Brain-Computer Interfaces, ovvero sistemi di comunicazione alternativi, basati sulla registrazione e sull’interpretazione di segnali neurali, generati durante il tentativo di parlare o di scrivere. Queste innovazioni tecnologiche costituiscono un traguardo fondamentale per la vita delle persone con paralisi o con patologie neurologiche che determinano l’inabilità a comunicare. L’obiettivo di questo elaborato è quello di descrivere due applicazioni innovative nell’ambito delle Real-time Silent Speech-BCIs. I metodi di BCI confrontati nel presente elaborato sintetizzano il parlato attraverso la rilevazione invasiva o parzialmente invasiva dell’attività cerebrale. L’utilizzo di metodi invasivi per la registrazione dell’attività cerebrale è giustificato dal fatto che le performance di acquisizione del segnale ottenute sono tali da controbilanciare i rischi associati all’operazione chirurgica necessaria per l’impianto. Le tecniche descritte sfruttano delle Reti Neurali Ricorrenti (RNNs), che si sono dimostrate le più efficaci nel prevedere dati sequenziali. Gli studi presentati in questa tesi costituiscono un passaggio fondamentale nel progresso tecnologico per il ripristino della comunicazione in tempo reale e sono i primi a riportare prestazioni di sintesi paragonabili a quelle del linguaggio naturale.
Resumo:
La sostenibilità (ambientale, economica e sociale) non rappresenta per le aziende un trend passeggero, ma una direzione da seguire per poter rispondere a norme sempre più stringenti e a consumatori sempre più attenti. La tesi illustra il concetto di sviluppo sostenibile, il quale ha segnato varie tappe della storia tra cui la pubblicazione nel 2015 dell’Agenda 2030 dalle Nazioni Unite e la definizione dei 17 obiettivi di sviluppo sostenibile per contrastare i problemi climatici. Vengono descritti i principali strumenti introdotti dall’Unione Europea per promuovere una crescita verde, utilizzando leve di intervento sia legislative che con incentivi, quali il Green Deal che mira a promuovere attività sostenibili che non generino emissioni di inquinanti, il decreto legislativo che regola l’informativa non finanziaria, il Piano d’Azione della Commissione Europea per finanziare la crescita sostenibile. Quello che le aziende comunicano sui propri siti web è una prima indicazione delle loro politiche in materia di sostenibilità, insieme ai report e alle certificazioni più formali. Lo scopo della tesi è valutare a che punto sono le aziende di diversi settori e dimensioni nella comunicazione di queste tematiche, analizzando un campione di esse, per mezzo di un form progettato per raccogliere e archiviare dati strutturati presi dai siti web. Grazie a questo si arriverà ad un punteggio per ciascuna di esse che rappresenta l’attuale livello comunicativo. Un problema attuale riscontrato è quello del greenwashing: una strategia di marketing, per dimostrare un impegno non reale nei confronti dell’ambiente agli occhi degli stakeholder e per farle guadagnare punti in reputazione e immagine aziendale. Il fine ultimo della tesi è quello di dimostrare che la sostenibilità è una scelta necessaria che va compiuta fin da subito, e non una questione solo delle grandi aziende o dei settori più “verdi”.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.
Resumo:
Il presente lavoro di tesi si basa sull’analisi di segnali elettromiografici bipolari superficiali (sEMG) riguardanti movimenti di grasping e di reaching. L’elaborato fa parte del progetto Neurograsp, il cui obiettivo è correlare l’attività muscolare con le zone di attivazione corticale durante movimenti di arto superiore eseguiti da soggetti sani. I soggetti partecipanti eseguono dei movimenti per raggiungere una tra 5 posizioni target differenti, equidistanziate lungo un semicerchio posto davanti al soggetto, e successivamente tornare alla posizione iniziale. Ogni movimento viene ripetuto 10 volte, il target viene deciso in maniera random all’interno dell’acquisizione e ogni acquisizione è effettuata 6 volte. Ogni posizione è identificata da un led e la loro accensione permette di comunicare al soggetto quale posizione raggiungere e quando iniziare il movimento. I segnali di sEMG bipolare sono stati rilevati sui seguenti muscoli dell’arto superiore dominante: bicipite brachiale, tricipite brachiale, estensore del polso e flessore del polso. Queste informazioni sono state utilizzate per analizzare le attività muscolari durante i movimenti, nello specifico per identificare un apprendimento motorio da parte del singolo soggetto. In particolare, si vuole mettere a punto un protocollo di elaborazione dati al fine di valutare se c’è stato un effettivo miglioramento dei movimenti avanzando nelle acquisizioni e se è possibile individuare un pattern comune nell’esecuzione del movimento a una direzione specifica. Nel contesto Neurograsp, le informazioni ricavate da questo studio di tesi, forniscono indicazioni sull’utilità di andare ad individuare risposte di aree corticali relative all’apprendimento muscolare.
Resumo:
La scoliosi è una delle patologie più importanti che affliggono la colonna vertebrale, che può essere trattata chirurgicamente con un intervento di fissazione posteriore per ripristinare l’allineamento della colonna vertebrale sul piano coronale. Questa chirurgia ha al momento un alto tasso di fallimento. Una delle principali complicazioni che portano al fallimento è l’insorgenza di patologia giunzionale lombare distale. In letteratura l’influenza dello sbilanciamento coronale non è stata ancora sufficientemente approfondita. Per questo, l’obiettivo di questo studio è quello di verificare l’esistenza di possibili correlazioni tra i parametri spinopelvici nel piano coronale e l’incidenza della patologia giunzionale distale nella regione lombare. Sono stati selezionati tutti i pazienti affetti da scoliosi che sono stati sottoposti a fissazione spinale strumentata nel 2017 e 2018 all’Istituto Ortopedico Rizzoli. Questi pazienti sono stati poi divisi in due gruppi, un gruppo di controllo che comprendeva 66 pazienti e un gruppo di 31 pazienti che hanno presentato patologia giunzionale distale, andando così incontro a revisione. In entrambi i gruppi sono stati estratti i dati demografici dei pazienti e sono stati misurati i parametri spinopelvici su radiografie in ortostatismo in proiezione anteroposteriore sia precedentemente che successivamente all’intervento di fissazione; per i pazienti affetti da patologia giunzionale distale sono state esaminate anche le radiografie precedenti alla revisione. L'analisi dei risultati di questo studio ha consentito di ipotizzare possibili correlazioni tra il fallimento di un intervento di fissazione spinale e alcune caratteristiche del paziente, quali età, BMI, sbilanciamento coronale , deviazione della vertebra apice e ampiezza (misurata secondo il metodo di Cobb) delle curve scoliotiche.
Resumo:
Lo scopo delle reti mobili è fornire ai dispositivi wireless accesso a una grande varietà di servizi dati, in un’ampia area geografica. Nonostante le reti cellulari odierne, basate sulla tecnologia Massive MIMO, possano raggiungere elevate performance in condizioni favorevoli (centro cella) esse, presentano all’interno dell’area di copertura, zone soggette a data-rate notevolmente ridotti. In questo elaborato, viene brevemente descritta la rete cell-free; una nuova architettura di rete pensata per superare i vecchi limiti delle reti cellulari tradizionali. Successivamente, vengono presentati attraverso simulazioni i due principali vantaggi che queste nuove reti cell-free offrono. Inoltre, viene analizzato uno schema random access in grado di gestire l’accesso multiplo per queste nuove architetture di rete. Questo schema rappresenta un’estensione di un protocollo già presente in letteratura e perfettamente funzionante per reti Massive MIMO, appartenente alla famiglia dei protocolli Coded Slotted ALOHA. Infine, un'analisi delle prestazioni e alcuni possibili scenari sono stati presentati, con lo scopo di valutare l'effetto che algoritmi di tipo SIC possono avere su queste reti.
Resumo:
La seguente tesi è stata sviluppata all’interno del progetto Neurograsp il cui obiettivo è individuare una correlazione tra l’attività muscolare e l’attivazione delle diverse aree corticali. Sono state impiegate diverse tecniche per acquisire segnali dal soggetto durante il task motorio da lui eseguito e questa tesi è incentrata sull’analisi dei dati acquisiti tramite Elettromiografia ad alta densità. I segnali elaborati sono quelli relativi all’attività muscolare di deltoide anteriore e posteriore, muscoli essenziali per il movimento di reaching. Il seguente lavoro è incentrato sull’elaborazione dei dati grezzi dall’HD-EMG e sulla loro rappresentazione con lo scopo di trarre conclusioni riguardo i pattern dell’attività muscolare e l’apprendimento motorio. In definitiva l’analisi qui descritta mira a descrivere nel contesto del progetto Neurograsp come si comportano i deltoidi riportando in dettaglio esempi dei risultati più significativi.
Resumo:
Questa tesi è stata svolta in collaborazione con un’azienda di Cesena che si occupa della progettazione e costruzione di caricabatterie e saldatrici e si pone come scopo di analizzare quello che viene chiamato carico "rigenerativo" un dispositivo che permette di testare e collaudare questo tipo di macchine consumando la minor energia elettrica possibile. In particolare si discuterà come avviene il funzionamento del circuito di interfaccia e la sua resa energetica attraverso alcune simulazioni con vari tipi di carichi. Verrà anche presa in esame una prova con il circuito realizzato e confrontata con quella analoga svolta al simulatore.
Resumo:
In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.
Resumo:
Log4Shell è una vulnerabilità scoperta nel 2021 che affliggeva il popolare sistema di log Log4J. Permetteva di utilizzare le richieste verso Log4J per eseguire codice arbitrario su un dispositivo che lo utilizza permettendo di accedere a dati riservati. A questa vulnerabilità è stato assegnato un punteggio CVSS di 10 (il massimo). Questa tesi è il completamento di un progetto di tirocinio svolto presso il CINECA in cui si sfrutta il SIEM IBM QRadar per tracciare i log, a cui si accede tramite le sue API da uno script scritto in Phyton per rilevare i tentativi di sfruttamento di questa vulnerabilità e tra questi quale è andato a buon fine.
Resumo:
La crisi energetica che sta investendo l’Italia e l’Europa e la contestuale necessità di raggiungere gli obiettivi che la comunità internazionale si è preposta per uno sviluppo sostenibile stanno spingendo sempre di più verso l’utilizzo di fonti energetiche alternative. In questo contesto il gas naturale liquefatto (LNG) può assumere un ruolo chiave per il trasporto a lunghe distanze.Il gas naturale liquefatto fa parte della classe dei liquidi criogenici. Uno dei problemi principali dei liquidi criogenici riguarda gli aspetti di sicurezza come, ad esempio, il comportamento del liquido criogenico in seguito ad un rilascio accidentale.Questo lavoro di tesi si è focalizzato sulla caratterizzazione sperimentale del flusso l’evaporazione di liquidi criogenici.Per condurre lo studio, per motivi di sicurezza, è stato utilizzato l’azoto liquido (LN2), liquido con caratteristiche criogeniche simili all’LNG, ma non reattivo. Analisi preliminari hanno evidenziato come il contributo legato allo scambio termico per conduzione sia quello preponderante per la determinazione del flusso evaporante. Per questo motivo, lo sversamento è stato eseguito su diverse tipologie di substrato, rappresentative dei materiali più comuni e che plausibilmente possano andare a contatto con liquidi criogenici. Nello specifico sono stati valutati i seguenti substrati: ghiaia, sabbia, terreno secco, terreno umido e cemento. In seguito, è stato valutato il profilo di massa, velocità di evaporazione e temperatura rispetto al tempo per comprendere la durata della fase evaporativa e i principali fenomeni coinvolti. La velocità media e massima di evaporazione è risultata fortemente influenzata dalle proprietà fisiche del substrato e dalla presenza di acqua al suo interno.I dati raccolti rappresentano un passo in avanti fondamentale per la caratterizzazione del comportamento dei liquidi criogenici in atmosfera, favorendo la progettazione di tecnologie e procedure opportune per il loro utilizzo in sicurezza.