998 resultados para Documentazione installazione banco prova analisi dati
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Negli ultimi anni, a causa degli enormi progressi dell’informatica e della sempre crescente quantità di dati generati, si è sentito sempre più il bisogno di trovare nuove tecniche, approcci e algoritmi per la ricerca dei dati. Infatti, la quantità di informazioni da memorizzare è diventata tale che ormai si sente sempre più spesso parlare di "Big Data". Questo nuovo scenario ha reso sempre più inefficaci gli approcci tradizionali alla ricerca di dati. Recentemente sono state quindi proposte nuove tecniche di ricerca, come ad esempio le ricerche Nearest Neighbor. In questo elaborato sono analizzate le prestazioni della ricerca di vicini in uno spazio vettoriale utilizzando come sistema di data storage Elasticsearch su un’infrastruttura cloud. In particolare, sono stati analizzati e messi a confronto i tempi di ricerca delle ricerche Nearest Neighbor esatte e approssimate, valutando anche la perdita di precisione nel caso di ricerche approssimate, utilizzando due diverse metriche di distanza: la similarità coseno e il prodotto scalare.
Resumo:
Gli sforzi di ricerca relativi all'High Performance Computing, nel corso degli anni, hanno prodotto risultati importanti inerenti all'incremento delle prestazioni sia in termini di numero di operazioni effettuate per periodo temporale, sia introducendo o migliorando algoritmi paralleli presenti in letteratura. Tali traguardi hanno comportato cambiamenti alla struttura interna delle macchine; si è assistito infatti ad un'evoluzione delle architetture dei processori utilizzati e all'impiego di GPU come risorse di calcolo aggiuntive. La conseguenza di un continuo incremento di prestazioni è quella di dover far fronte ad un grosso dispendio energetico, in quanto le macchine impiegate nell'HPC sono ideate per effettuare un'intensa attività di calcolo in un periodo di tempo molto prolungato; l'energia necessaria per alimentare ciascun nodo e dissipare il calore generato comporta costi elevati. Tra le varie soluzioni proposte per limitare il consumo di energia, quella che ha riscosso maggior interesse, sia a livello di studio che di mercato, è stata l'integrazione di CPU di tipologia RISC (Reduced Instruction Set Computer), in quanto capaci di ottenere prestazioni soddisfacenti con un impiego energetico inferiore rispetto alle CPU CISC (Complex Instruction Set Computer). In questa tesi è presentata l'analisi delle prestazioni di Monte Cimone, un cluster composto da 8 nodi di calcolo basati su architettura RISC-V e distribuiti in 4 piattaforme (\emph{blade}) dual-board. Verranno eseguiti dei benchmark che ci permetteranno di valutare: le prestazioni dello scambio di dati a lunga e corta distanza; le prestazioni nella risoluzione di problemi che presentano un principio di località spaziale ridotto; le prestazioni nella risoluzione di problemi su grafi e, nello specifico, ricerca in ampiezza e cammini minimi da sorgente singola.
Resumo:
Il presente lavoro di tesi si occupa di identificare le possibili ubicazioni di hub logistici distributivi del gruppo aziendale FAAC Technologies e di valutare le alternative da un duplice punto di vista: economico e sostenibile. Per raggiungere il suddetto risultato è stata dapprima studiata l’attuale configurazione logistica nel centro Europa. Unendo le caratteristiche dell’azienda con le ricerche presenti in letteratura scientifica riguardo la risoluzione di Hub Location Problem, è stato implementato un modello matematico che ottimizzi economicamente il posizionamento degli stabilimenti secondo diversi scenari organizzativi. Una seconda versione del modello valuta il rispetto dei tempi di transito da parte delle soluzioni ottenute. Infine, gli stessi scenari sono stati comparati tra loro in base all’impatto ambientale in termini di CO2 emessa nell’atmosfera per via del trasporto. Sono state studiate strategie riguardanti la logistica distributiva sostenibile e sono state proposte soluzioni in grado di mitigare gli effetti dovuti all’immissione di anidride carbonica. Gli strumenti digitali utilizzati nella presente ricerca sono stati: Excel per visualizzare ed elaborare i dati aziendali; Flourish per visualizzare i dati in mappe geografiche; MATLAB per trasformare le tariffe di trasporto in equazioni matematiche; Gurobi Optimizer per ottenere le soluzioni date dall’ottimizzazione del modello matematico, programmando attraverso il linguaggio AMPL. I risultati più significativi dimostrano la possibilità di raggiungere un risparmio economico del 16,7% dei costi logistici nel caso di ubicazione di un solo hub e del 9,8% nel caso di due hub. Dal punto di vista ambientale le medesime soluzioni comportano un aumento delle emissioni di CO2 rispettivamente del 45% e 8%. L’azzeramento di queste emissioni aggiuntive è possibile e a tal fine sarebbe necessario sostenere extra costi, i quali farebbero convergere entrambe gli scenari ad un risparmio comune pari all’8,2%.
Resumo:
La tematica al centro della tesi è la valutazione della stabilità del versante roccioso in cui si colloca la tomba Lattanzi, facente parte della necropoli Norchia (VT), e la proposta preliminare di interventi a basso impatto per la conservazione del sito. Le attività svolte sono riportate di seguito: - inquadramento geografico, storico ed archeologico della necropoli di Norchia e della tomba Lattanzi; - inquadramento geologico e geomorfologico sviluppato consultando la carta geologica d’Italia in scala 1:50.000 e carte tematiche riguardanti la zona di interesse, comprese quelle del progetto IFFI (Inventario dei Fenomeni Franosi in Italia); - inquadramento sismico dell’area, condotto a partire dai dati forniti dall’INGV per il comune di Viterbo; - inquadramento meteo-climatico del comune di Viterbo; - inquadramento topografico attraverso nuvola di punti generata da rilievo laser scanner; - caratterizzazione fisica e meccanica del materiale roccioso tramite prove di laboratorio; - caratterizzazione delle discontinuità tramite rilievi in situ; - classificazione tecnica dell’ammasso; - creazione di un modello geotecnico del sottosuolo; - analisi cinematica effettuata tramite il programma Dips®; - analisi con il metodo dell’equilibrio limite e analisi numerica effettuata tramite il programma Plaxis®; - elaborazione dei risultati ottenuti e proposte di intervento quali: Intervento con ancoraggi passivi e sottofondazione al piede della tomba con una muratura in conci di tufo. Le analisi svolte, seppur semplificate, consentono di definire i possibili fenomeni di instabilità del versante nelle condizioni attuali e, in una ottica di conservazione preventiva, di effettuare scelte di gestione del sito che evitino interventi impattanti.
Resumo:
Obiettivo della tesi è quello di ipotizzare una serie di interventi volti al miglioramento energetico di un condominio sito nel comune di Modena, raggrupparli in possibili scenari e fare una valutazione di analisi costi-benefici al fine di individuare la convenienza degli scenari proposti. Verrà fatto un inquadramento del caso studio, presentando l’edifico oggetto di intervento e le sue caratteristiche e condizioni nello stato di fatto rilevate a seguito di sopralluogo. Si procede con l’inserimento dei dati all’interno di un software certificato, e con la diagnosi energetica, illustrandone i vari risultati e criticità immediatamente rilevabili da questa analisi. Sulla base delle problematiche rilevate si sono ipotizzati una serie di interventi volti al raggiungimento di risultati prestazionali migliori nell’edificio, combinandoli tra loro per formare quattro possibili scenari realizzabili. Oltre ad indicare i risultati relativi al condominio nella sua totalità sono stati scelti tre appartamenti tipo, collocati in piani diversi, per analizzare in che modo gli interventi proposti influissero su ciascuno di essi in base alla loro posizione. Si è poi passati alla diagnosi energetica dei possibili scenari mettendoli a confronto con lo stato di fatto. In conclusione, in prima analisi sono stati calcolati i costi annuali relativi all’energia richiesta dagli impianti presenti per gli scenari di intervento, paragonandoli con quelli dello stato di fatto, e quindi valutandone il risparmio. Si è poi tenuto conto dell’investimento complessivo per ciascuno scenario, sommando il costo dei singoli interventi. Questi risultati sono stati poi messi a confronto per valutare la convenienza economica dei quattro scenari a fronte dei benefici ottenibili e dei costi da sostenere.
Resumo:
Le energie rinnovabili rappresentano il presente e allo stesso tempo il futuro della produzione elettrica mondiale. Produrre sempre più energia da fonti rinnovabili è una necessità condivisa da tutti i Paesi del mondo per cercare di dare un freno agli evidenti problemi climatici e alle continue minacce subite dall’ecosistema, che stanno condizionando il pianeta negli ultimi anni. Nel corso di questo elaborato ci si è concentrati soprattutto sul fotovoltaico, che a differenza delle altre fonti, essendo alimentato dall’energia solare è ben distribuito in quasi tutto il pianeta e nel corso degli ultimi anni ha avuto una crescita e una diffusione esponenziali in Italia e nel resto del mondo. La sempre crescente innovazione nel campo dei materiali utilizzati, permette ad oggi una maggiore scelta della tipologia di pannello da installare, sulla base dei vari fattori che possono influenzarne efficienza e rendimento. L’obiettivo finale è quello di avere tutti i dati necessari per effettuare l’analisi e il confronto tra le simulazioni di funzionamento di diverse tipologie di fotovoltaico, valutandone, oltre all’aspetto tecnico, anche la convenienza e i vantaggi in termini di rendimento. Durante lo sviluppo della tesi, le simulazioni sono state condotte prendendo come riferimento un capannone industriale ubicato nella stazione ferroviaria di Bologna Interporto, analizzando poi i dati mediante l’ausilio del software PVSyst. per confrontare i dati e i risultati ottenuti all’interno di un resoconto che evidenzi le maggiori differenze e la soluzione più vantaggiosa in termini di rendimento.
Resumo:
Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.
Resumo:
Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.
Resumo:
L’introduzione dei materiali compositi all’interno dell’ambiente industriale ha modificato l’idea di progettazione delle strutture, permettendo il raggiungimento di eccellenti prestazioni difficilmente ottenibili con materiali classici. Grazie all’uso dei compositi si sono ottenute elevata resistenza e leggerezza, caratteristiche di grande interesse nell’industria aerospaziale, delle costruzioni civili e soprattutto del settore automobilistico. Il materiale composito viene considerato oggigiorno un materiale innovativo del quale non si conoscono in modo esaustivo tutte le caratteristiche. Da questa premessa è nata la campagna sperimentale di questa tesi, il cui scopo è la definizione della sequenza di laminazione per la realizzazione della molla posteriore per la sospensione del prototipo da competizione Emilia5, del team Onda Solare. Si è ricercata la configurazione che conferisse una rigidità flessionale maggiore rispetto a quelle campionate. Si è proceduto, quindi, allo studio delle possibili sequenze di laminazione con cui realizzare la molla e sono stati creati i provini utilizzando CFRP unidirezionale, materiale caratterizzato da un’elevata resistenza lungo l’asse longitudinale. I 5 provini realizzati si differenziano principalmente per le metodologie di sovrapposizione delle lamine contigue e per i materiali utilizzati. Sui provini realizzati è stata eseguita una caratterizzazione mediante prova di flessione in tre punti, dalla quale sono stati ricavati i dati necessari alla successiva analisi delle proprietà. Infine, con i risultati ottenuti si è proceduto alla determinazione della sequenza di laminazione ottimale per la realizzazione del prototipo.
Resumo:
La finalità della tesi è quella di poter progettare il cerchione del veicolo solare "Emilia 5" in materiale composito. Questa auto è l’evoluzione della "Emilia 4", sviluppata dalla squadra Onda Solare in collaborazione con l’Università di Bologna, con cui sono state vinte molte gare. Tramite software (Ansys) è stato realizzato il modello virtuale del cerchione in fibra di carbonio e, con l'ausilio dell'analisi agli elementi finiti, ne è stata verificata la stabilità, sottoponendolo a cinque condizioni di carico diverse. Lo studio approfondisce le tematiche riguardanti i materiali compositi, il concetto di sequenza di laminazione e come varia la distribuzione delle tensioni al variare di esse. In particolare, viene analizzato con attenzione lo studio tramite software della sequenza di laminazione che permette di ottenere i risultati migliori per il tipo di applicazione. Infine, vengono confrontati i dati ottenuti dalle simulazioni effettuate, per l'analisi e lo studio dei dati significativi.
Resumo:
L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.
Resumo:
La galvanotassi, la migrazione cellulare stimolata dalla presenza di un campo elettrico esogeno o endogeno, `e stata oggetto di studi sin dalla fine del diciannovesimo secolo. Nonostante la molteplicità di lavori a riguardo, non c’`e uniformità. a nelle tecniche sperimentali, se non per il fatto che il campo elettrico viene generato tramite una configurazione a cella elettrolitica, detta anche a generazione interna di campo elettrico. Scopo di questa tesi `e analizzare e caratterizzare la migrazione di cellule isolate in vitro in presenza e in assenza di un campo elettrostatico esterno, rendendola originale rispetto a studi precedenti. La differenza nella configurazione sperimentale `e fondamentale per spiegare le caratteristiche dei moti osservati. Per la procedura sperimentale sono state usate come campione cellule di linea di origine tumorale denominate T98G adese a una piastra in polistirene posta, non a contatto, tra due piastre in rame cariche. Sono state acquisite micrografie in contrasto di fase a intervalli regolari inizialmente in una fase di controllo, quindi applicando un campo elettrostatico, cos`ı da poter analizzare il moto cellulare nelle diverse condizioni. In particolare, l’analisi del tracking di singole cellule selezionate sulla base di criteri stabiliti a priori ha permesso di evidenziare un moto isotropo, indipendentemente dalla presenza del campo elettrostatico. Invece, mostrando che i dati sperimentali delle distanze e delle velocita seguono distribuzioni Gamma, si osserva che dipende dalla presenza del campo elettrostatico la maggiore probabilità che una cellula si sposti pi`u della media. Infine, `e stato possibile determinare che l’influenza del campo elettrostatico sul moto delle cellule non dipende dalla posizione di queste rispetto alle piastre. Il lavoro svolto in questa tesi sarà parte dei risultati inseriti in una pubblicazione su rivista internazionale.
Resumo:
La stenosi spinale lombare (LSS) è un processo degenerativo frequente nell’attuale popolazione anziana e può essere considerata come la causa principale di chirurgia spinale nei pazienti di età superiore ai sessantacinque anni. Comporta un restringimento del forame vertebrale, che, nei casi più gravi, causa una compressione del midollo spinale e degli elementi neurali e vascolari situati nel tratto lombo-sacrale. Uno dei trattamenti chirurgici di decompressione utilizzato è l’emilaminectomia, che, prevedendo la resezione della lamina di un solo lato della vertebra e di parte del legamento giallo, può portare a una riduzione della stabilità spinale. L’obiettivo di questo studio in vitro è quello di analizzare l’impatto dell’emilaminectomia sulla biomeccanica del rachide. Sei provini, estratti da rachide umano e costituiti da quattro vertebre lombari e una sacrale (L2-S1), sono stati testati meccanicamente in flessione, estensione e flessione laterale sinistra e destra in due condizioni di prova: intatti e post emilaminectomia. La stabilità spinale è stata valutata calcolando il Range of Motion tra le vertebre L2 e S1 agli estremi dei provini. Mediante l’algoritmo di Digital Image Correlation (DIC), sono state estratte e valutate le distribuzioni delle deformazioni dell’intero provino, valutando, in particolare, le deformazioni principali massime e minime sulla superficie del disco intervertebrale L4-L5. I risultati hanno mostrato che l’emilaminectomia ha causato una diminuzione significativa della stabilità spinale solo in flessione, con un aumento del Range of Motion del 54%. L’emilaminectomia non ha causato variazioni nelle distribuzioni delle deformazioni in ogni configurazione di carico. Le deformazioni principali minime sul disco intervertebrale L4-L5, tra le due vertebre in cui è stata eseguita l’emilaminectomia, sono aumentate, in modo statisticamente significativo, del 38% nella flessione nel lato in cui è stato svolto l’intervento di emilaminectomia.
Resumo:
Nel primo punto del capitolo seguente si propone una panoramica sulla decarbonizzazione del settore energetico e si discutono i principali provvedimenti europei avviati a tal fine. Si analizza lo scenario energetico italiano e le sue prospettive future; anche l’Italia deve impegnarsi in termini di energie rinnovabili e riduzione dei gas serra. Nel settore energetico nazionale sono comprese la produzione, la trasformazione e l’utilizzo di energia elettrica. In questa fase in particolare, si studiano i dati relativi alla fase di produzione. Inoltre, si studia la dipendenza energetica dell’Italia dalle fonti fossili estere. Di seguito saranno analizzati i piani energetici auspicabili per il 2030 e per il 2050. Nel secondo punto si passa poi all’analisi dei consumi, attraverso lo studio dei consumi medi e l’approfondimento sui consumi dei principali elettrodomestici. Nella prima sezione del capito che segue vengono analizzati i principali sistemi di accumulo di energia domestica con particolare enfasi riguardo i limiti applicativi. Le batterie a litio seppur relativamente economiche hanno un forte impatto ambientale che sarebbe ammortizzato utilizzando un nuovo modello di volano (MechSTOR). Nella seconda parte del capitolo, si esamina invece la fattibilità del modello di accumulo a volano. I costi del volano verrebbero ammortizzati dal guadagno relativo all’immissione in rete di energia elettrica? L’analisi in Simulink ha permesso di lavorare con i segnali di potenza, utilizzando le curve di carico domestico e la curva di produzione fotovoltaica al fine di studiare la convenienza economica della batteria a volano.