667 resultados para Sistemi di collaudo, Termografia
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
In questa tesi si esamineranno alcune possibili vulnerabilità dei sistemi di riconoscimento di impronte digitali e si tenterà di migliorare la loro sicurezza nei confronti di una tipologia specifica di attacco che utilizza impronte digitali "artificiali" per permettere ad un criminale di utilizzare il documento di un complice. È stata infatti recentemente dimostrata la possibilità di inserire in un documento elettronico caratteristiche biometriche che lo rendono utilizzabile da due diverse persone. Questa problematica di sicurezza è alla base dell’attacco che verrà analizzato in questa tesi e per il quale si cercheranno contromisure efficaci.
Resumo:
Il focus di questo elaborato è sui sistemi di recommendations e le relative caratteristiche. L'utilizzo di questi meccanism è sempre più forte e presente nel mondo del web, con un parallelo sviluppo di soluzioni sempre più accurate ed efficienti. Tra tutti gli approcci esistenti, si è deciso di prendere in esame quello affrontato in Apache Mahout. Questa libreria open source implementa il collaborative-filtering, basando il processo di recommendation sulle preferenze espresse dagli utenti riguardo ifferenti oggetti. Grazie ad Apache Mahout e ai principi base delle varie tipologie di recommendationè stato possibile realizzare un applicativo web che permette di produrre delle recommendations nell'ambito delle pubblicazioni scientifiche, selezionando quegli articoli che hanno un maggiore similarità con quelli pubblicati dall'utente corrente. La realizzazione di questo progetto ha portato alla definizione di un sistema ibrido. Infatti l'approccio alla recommendation di Apache Mahout non è completamente adattabile a questa situazione, per questo motivo le sue componenti sono state estese e modellate per il caso di studio. Siè cercato quindi di combinare il collaborative filtering e il content-based in un unico approccio. Di Apache Mahout si è mantenuto l'algoritmo attraverso il quale esaminare i dati del data set, tralasciando completamente l'aspetto legato alle preferenze degli utenti, poichè essi non esprimono delle valutazioni sugli articoli. Del content-based si è utilizzata l'idea del confronto tra i titoli delle pubblicazioni. La valutazione di questo applicativo ha portato alla luce diversi limiti, ma anche possibili sviluppi futuri che potrebbero migliorare la qualità delle recommendations, ma soprattuto le prestazioni. Grazie per esempio ad Apache Hadoop sarebbe possibile una computazione distribuita che permetterebbe di elaborare migliaia di dati con dei risultati più che discreti.
Resumo:
La Sentiment analysis, nata nell'ambito dell’informatica, è una delle aree di ricerca più attive nel campo dell’analisi del linguaggio naturale e si è diffusa ampiamente anche in altri rami scientifici come ad esempio le scienze sociali, l’economia e il marketing. L’enorme diffusione della sentiment analysis coincide con la crescita dei cosiddetti social media: siti di commercio e recensioni di prodotti, forum di discussione, blog, micro-blog e di vari social network. L'obiettivo del presente lavoro di tesi è stato quello di progettare un sistema di sentiment analysis in grado di rilevare e classificare le opinioni e i sentimenti espressi tramite chat dagli utenti della piattaforma di video streaming Twitch.tv. Per impostare ed organizzare il lavoro, giungendo quindi alla definizione del sistema che ci si è proposti di realizzare, sono stati utilizzati vari modelli di analisi in particolare le recurrent neural networks (RNNLM) e sistemi di word embedding (word2vec),nello specifico i Paragraph Vectors, applicandoli, dapprima, su dati etichettati in maniera automatica attraverso l'uso di emoticon e, successivamente, su dati etichettati a mano.
Resumo:
Analisi di una strategia di trading mean reverting al fine di valutare la fattibilita del suo utilizzo intraday nel mercato telematico azionario italiano. Panoramica sui sistemi di meccanizzazione algoritmica e approfondimento sull'HFT.
Resumo:
L’elaborato è strutturato in sei capitoli ed ha come obiettivo principale quello di descrivere un impianto pilota per il trasporto pneumatico dell’atomizzato di barbottina e di riportare i risultati delle analisi sperimentali, condotte per la caratterizzazione del trasporto dello stesso, necessarie per la futura progettazione di un impianto in scala industriale. Nel primo capitolo verrà presentata l’industria ceramica italiana e le fasi per la produzione delle piastrelle, con particolare attenzione al tema del trasporto di materiale tra i vari reparti produttivi. Nel capitolo due, poi, si analizzeranno le problematiche collegate ai tradizionali sistemi di movimentazione di materiale sfuso, facendo un confronto tra quelli più usati e quello pneumatico. Quest’ultimo rappresenta un’alternativa ai sistemi di trasporto classici, i quali pur assicurando elevati volumi di movimentazione, non salvaguardano l’integrità del materiale trasportato. Lo sgretolamento del materiale, oltre a rendere quest’ultimo inutilizzabile per la produzione delle piastrelle, è responsabile dell’emissione nell'ambiente di lavoro di silice cristallina libera. Al contrario, il trasporto pneumatico, del quale si riporta una descrizione nel capitolo tre e quattro, garantisce il minimo rischio di formazione di polveri fini, grazie al totale confinamento del materiale all'interno di una conduttura. Nel capitolo cinque verranno esposti i risultati delle analisi sperimentali effettuate sull'impianto: verranno illustrate le prove di trasporto condotte e, a valle di ognuna di queste, l’attenzione si focalizzerà sulla granulometria del materiale processato, paragonando la stessa a quella del materiale vergine di riferimento. Infine, nel sesto capitolo, si riporteranno i risultati delle simulazioni effettuate sul software TPSimWin, basato su calcolo agli elementi finiti. Tali simulazioni sono necessarie per determinare le principali caratteristiche del materiale da trasportare.
Resumo:
L'EGR (Exhaust Gas Recirculation) è una tecnica comunemente sfruttata per la riduzione delle emissioni. In questo studio sono stati investigati i benefici, in termini di fuel economy, prodotti dall'aggiunta di un circuito EGR long route su un motore diesel per applicazioni automobilistiche dotato di sistema short route. L'indagine è stata svolta su di un modello motore su software GT-Power, adeguatamente calibrato e validato sui dati da piano quotato. Simulazioni sono state svolte al fine di valutare gli effetti del solo LP-EGR sul motore, per poi considerare un funzionamento combinato dai due sistemi di ricircolo (dual loop). Le maggiori portate che per il sistema long route interessano la turbina determinano un incremento nelle contropressioni. Ciò ha portato a considerare la possibilità di modificare il sistema turbo. Il layout originario comprendeva una turbina a geometria fissa (FGT), a cui ne sono stati affiancati due ulteriori con turbina a geometria variabile (VGT). I risultati sono stati analizzati vincolando la produzione di inquinanti ai valori registrati nei punti di calibrazione relativi al layout originale del motore. Effettivo risparmio di combustibile non è stato riscontrato nell'allestimento con turbina FGT a causa delle elevate contropressioni, mentre con turbine VGT è stata registrata una effettiva fuel economy grazie al sistema LP-EGR senza alcun deterioramento nelle emissioni di NOx e PM. I benefici riscontrati con il LP-EGR sono da attribure ad un incremento del rendimento indicato dovuto alla riduzione delle perdite per scambio termico a seguito di una minore temperatura caratterizzante i gas ricircolati.
Resumo:
I sistemi di localizzazione, negli ultimi anni, sono stati oggetto di numerose ricerche a livello internazionale.Gli sviluppi più importanti hanno avuto inizio nell’ambito stradale con sistemi di navigazione e localizzazione, possibili grazie alle forti capacità del GPS.Infatti il GPS indica l’intero apparato che permette il funzionamento della maggior parte dei navigatori disponibili in commercio, che, però, non sono utilizzabili in ambito indoor, in quanto la ricezione del segnale proveniente dai satelliti GPS diventa scarsa o pressoché nulla. In questo senso, la localizzazione risulta rilevante nel caso di indoor positioning, ossia quando utenti hanno bisogno di conoscere la propria posizione e quella degli altri membri della squadra di soccorso all’interno di un edificio come, ad esempio, i vigili del fuoco durante un’operazione di salvataggio. Sono questi fattori che portano all’idea della creazione di un sistema di localizzazione indoor basato su smartphone o una qualsiasi altra piattaforma disponibile. Tra le diverse tecnologie e architetture legate al posizionamento indoor/outdoor e inerziale, con questa tesi, si vuole esporre la foot-mounted inertial navigation, un sistema che permette di conoscere la propria posizione, sia all’interno di edifici,sia in campi aperti, tramite l’utilizzo di una rete wireless o GPS e l’aiuto di sensori a basso costo.Tuttavia per conoscere la stima ottimale della posizione, della velocità e dell’orientamento corrente di un utente dotato di sensori sarà necessaria l’integrazione di diversi algoritmi, che permettono di modellare e stimare errori o di conoscere e predire la posizione futura dello stesso. Gli scopi principali di questo lavoro sono: 1)Tracciare i movimenti di un utente usando diversi sensori per ottenere una stima ottimale della posizione dello stesso; 2)Localizzare l’utente in 3 dimensioni con precisione; 3)Ottenere una transizione senza interruzioni per un posizionamento continuo tra aree indoor e outdoor;
Resumo:
La progettazione e la modellazione delle geometrie di corpi complessi come le schiere palettate delle turbomacchine, da sempre impegna il tecnico che, dapprima su carta, e successivamente in forma digitale, deve scontrarsi con le difficoltà sia analitiche di risoluzione di sistemi di equazioni differenziali, che geometriche a causa della doppia curvatura dei profili stessi. L’avvento dei calcolatori ha inevitabilmente giocato un ruolo fondamentale nella rapida evoluzione di tecniche di modellazione, calcolo e rappresentazione, per aiutare il progettista a risolvere completamente il problema, o almeno riscontrare risultati approssimativamente corretti, al fine di ridurre i tempi di realizzazione e i costi dell’impresa. Si vuole dunque cercare di descrivere le fasi che la progettazione oggi richiede, sfruttando quello che i software moderni mettono a disposizione, con l’obiettivo di mostrare uno dei molteplici percorsi che il progettista oggi può seguire per riuscire nel suo scopo.
Resumo:
Nel corso degli anni le fonti rinnovabili e in particolare il fotovoltaico hanno assunto un ruolo sempre più importante nel panorama energetico italiano. Si è effettuata un’analisi della tecnologia fotovoltaica illustrandone il funzionamento, le tipologie di pannelli, il calcolo dell’energia elettrica producibile e le curve caratteristiche. Dal momento che la maggior parte delle rinnovabili presenta il problema della non programmabilità dovuta alla produzione intermittente, è necessario adottare dei sistemi di accumulo. Tali sistemi vengono mostrati, con particolare riguardo per le batterie al piombo acido e per l’idrogeno immagazzinato in idruri metallici, spiegando nel dettaglio l’elettrolisi e gli elettrolizzatori PEM. Dopo questa panoramica iniziale, si è illustrato l’impianto oggetto di questa tesi, composto principalmente da due pannelli fotovoltaici, un simulatore solare, due batterie al Piombo, un elettrolizzatore, un carico e un alimentatore. In seguito viene spiegata l’attività sperimentale, svolta sulle prove di laboratorio ai fini di ottenere le curve di funzionamento dei vari componenti, tramite due approcci diversi: per il sistema atto all’elettrolisi e per tutti i suoi componenti si è usato un modello black-box, per i pannelli fotovoltaici si è usato un approccio fisico-matematico partendo dalle equazioni del simulatore solare applicandovi i dati dei pannelli del laboratorio. Una volta ottenute queste curve, si è creato un modello completo del laboratorio per simularne il funzionamento al variare dell’irraggiamento. Si è testato prima il modello su un’utenza da 3 kW, poi, dopo aver confrontato gli andamenti reali con quelli ottenuti, si sono simulate varie configurazioni per trovare quella che permette al sistema di produrre idrogeno alla potenza nominale di 250 W in una giornata senza supplemento della rete elettrica.
Resumo:
Fino a pochi anni fa l’economia dei paesi più sviluppati non teneva in nessun conto l’esauribilità delle risorse del pianeta. La crescita dei paesi cosiddetti emergenti ci ha messo di fronte ad un problema enorme: ciò che la terra produce non è più sufficiente per i consumi di tutti. In particolare è aumentato a dismisura il fabbisogno energetico di questi paesi: per soddisfarlo ogni risorsa viene utilizzata senza tenere conto degli effetti inquinanti. Si cominciano già a vederne i primi, di cui il più evidente è il cambiamento climatico, che può portare a veri e propri scompensi ambientali anche nel breve periodo fino a vere e proprie catastrofi (se l’aumento di temperatura supererà i 3°C). Questo problema non è risolvibile istantaneamente ma è fondamentale cominciare a fare qualcosa: un sistema di incentivi che promuova il rinnovabile e adottare nuovi sistemi di sfruttamento dell’energia. In tale ambito sono stati fatti grandi passi, ma bisogna continuare in questo senso. Risulta quindi fondamentale l’utilizzo di energie rinnovabili, che hanno il grande vantaggio di non essere inquinanti ma allo stesso tempo, non essendo programmabili, per poterle sfruttare al meglio e in modo istantaneo necessitano di sistemi di accumulo che permettano all’utente di soddisfare immediatamente la richiesta. Studiamo quindi il comportamento di un sistema di approvvigionamento alimentato da fonte rinnovabile non programmabile per la produzione di idrogeno, che permette un semplice stoccaggio in bombole a una pressione relativamente bassa (10 bar), consentendone l’utilizzo sia come idrogeno purissimo che in un metanatore. In particolare verificheremo il comportamento del sistema di accumulo a gel di piombo; per ottenerne il miglior rendimento, ricercandone la migliore efficienza e le curve di funzionamento. Per ottenere la migliore efficienza del sistema occorre che i componenti vengano progettati, studiati ed utilizzati nelle più performanti condizioni di lavoro.
Resumo:
Questo progetto di tesi è parte di un programma più ampio chiamato TIME (Tecnologia Integrata per Mobilità Elettrica) sviluppato tra diversi gruppi di ricerca afferenti al settore meccanico, termofluidodinamico e informatico. TIME si pone l'obiettivo di migliorare la qualità dei componenti di un sistema powertrain presenti oggi sul mercato progettando un sistema general purpose adatto ad essere installato su veicoli di prima fornitura ma soprattutto su retrofit, quindi permettendo il ricondizionamento di veicoli con motore a combustione esistenti ma troppo datati. Lo studio svolto si pone l'obiettivo di identificare tutti gli aspetti di innovazione tecnologica che possono essere installati all'interno del sistema di interazione uomo-macchina. All'interno di questo progetto sarà effettuata una pianificazione di tutto il lavoro del gruppo di ricerca CIRI-ICT, partendo dallo studio normativo ed ergonomico delle interfacce dei veicoli analizzando tutti gli elementi di innovazione che potranno far parte del sistema TIME e quindi programmare tutte le attività previste al fine di raggiungere gli obiettivi prefissati, documentando opportunamente tutto il processo. Nello specifico saranno analizzate e definite le tecniche da utilizzare per poi procedere alla progettazione e implementazione di un primo sistema sperimentale di Machine Learning e Gamification con lo scopo di predire lo stato della batteria in base allo stile di guida dell'utente e incentivare quest'ultimo tramite sistemi di Gamification installati sul cruscotto ad una guida più consapevole dei consumi. Questo sistema sarà testato su dati simulati con l'obiettivo di avere un prodotto configurabile da installare sul veicolo.
Resumo:
Nella società odierna, le telecomunicazioni costituiscono un’esigenza fondamentale della vita quotidiana. Difatti, il mercato della ICT (Information and Communications Technology) è in costante espansione, e viene accompagnato da un rapido sviluppo di nuove tecnologie. In particolare, si assiste a un sempre più rilevante ruolo svolto dalle comunicazioni ottiche, ovvero sfruttanti la luce: in questo contesto, il quale comprende diversi rami ingegneristici, si stanno progressivamente affermando nuove forme di comunicazione basate sulla luce visibile, la cosiddetta Visible Light Communication (VLC). Con questa Tesi ci si propone di implementare con Simulink e stateflow di Matlab il livello MAC (Medium Access Control), basato sullo standard IEEE 802.15.7 per le VLC e valutarne le prestazioni. Prescinde da questa Tesi la parte di implementazione su scheda stessa che è lasciata per sviluppi futuri. Nel capitolo uno si introducono le VLC e si discutono i principali scenari attuali dove possono diffondersi. Nel capitolo 2, si mostrano le principali linee guida afferenti agli standard che sono risultate necessarie per sviluppare lo strato MAC. Nei capitoli 3 e 4 si mostra come il layer sviluppato possa essere utilizzato in due principali situazioni: nel capitolo 3 è descritta la realizzazione di una comunicazione punto-punto, ovvero con un trasmettitore e un ricevitore; nel capitolo 4 è descritta l’implementazione di una rete di nodi, ambito in cui il livello MAC risulta indispensabile. Per ognuna delle situazioni si illustrano scelte e caratteristiche dei sistemi simulati e i risultati ottenuti, cercando di coprire diverse eventualità che intercorrono, più in generale, nella gestione e implementazione di sistemi di telecomunicazione wireless.
Resumo:
La tesi esplora le problematiche relative all'integrazione di tecnologie per lo sviluppo di sistemi multi-agente e tecnologie per lo sviluppo di sistemi di comunicazione ad eventi. In particolare è stata posta l'attenzione sui concetti condivisi da entrambe le tecnologie e su come sia possibile realizzare l'integrazione preservando i principi fondamentali delle due tipologie di sistemi, tramite l'implementazione di un'astrazione di coordinazione oggettiva. Inoltre viene mostrato un esempio di integrazione tra JADE, TuCSoN e Kafka, tramite un caso di studio che permette di utilizzare i tre modelli di coordinazione offerti da questi framework in un unico sistema multi-agente.