975 resultados para autenticazione protocolli crittografia simulink implementazione stateflow
Resumo:
The increasing interest in the decarbonization process led to a rapidly growing trend of electrification strategies in the automotive industry. In particular, OEMs are pushing towards the development and production of efficient electric vehicles. Moreover, research on electric motors and their control are exploding in popularity. The increase of computational power in embedded control hardware is allowing the development of new control algorithm, such as sensorless control strategy. Such control strategy allows the reduction of the number of sensors, which implies reduced costs and increased system reliability. The thesis objective is to realize a sensorless control for high-performance automotive motors. Several algorithms for rotor angle observers are implemented in the MATLAB and Simulink environment, with emphasis on the Kalman observer. One of the Kalman algorithms already available in the literature has been selected, implemented and benchmarked, with emphasis on its comparison with the Sliding Mode observer. Different models characterized by increasing levels of complexity are simulated. A simplified synchronous motor with ”constant parameters”, controlled by an ideal inverter is first analyzed; followed by a complete model defined by real motor maps, and controlled by a switching inverter. Finally, it was possible to test the developed algorithm on a real electric motor mounted on a test bench. A wide range of different electric motors have been simulated, which led to an exhaustive review of the sensorless control algorithm. The final results underline the capability of the Kalman observer to effectively control the motor on a real test bench.
Resumo:
Il crescente aumento del numero di dispositivi connessi in rete e delle applicazioni che vengono sviluppate su di essa ha trasformato completamente lo standard delle applicazioni che una volta erano single-user, facendo quindi arrivare lo standard ad un modello multi-utente, dove si ha un ambiente collaborativo e condiviso in cui le azioni di un determinato utente vanno ad influire anche sugli altri. Altra necessità al giorno d'oggi è inoltre che queste applicazioni multi-utente siano anche real-time, ovvero che si aggiornino in tempo reale e che di conseguenza l'azione di un singolo utente debba essere trasmessa e notificata a tutti gli altri in modo che possano gestirla di conseguenza. Lo sviluppo di tali applicazioni risulta quindi particolarmente complesso, tuttavia esistono anche soluzioni architetturali e framework che risultano essere dedicati all'implementazione di tale tipo di applicazioni, il quale obiettivo è quindi quello di semplificarne e velocizzarne lo sviluppo, tramite l'utilizzo di pattern o architetture mirate all'implementazione di un tipo specifico di tali applicazioni. Un esempio di tali soluzioni è Croquet, che permette la creazione di applicazioni real-time multi-utente, senza la necessità di scrivere alcun codice per la parte server o per la gestione delle comunicazioni tra i peer, ma solamente sviluppando il modello del client, ovvero la parte in esecuzione sulla macchina dell'utente. Questa tesi andrà quindi ad effettuare uno studio sul funzionamento e sull'architettura di Croquet proseguendo quindi con lo sviluppo di un middleware che permetta la creazione di applicazioni real-time multi-utente indipendenti dal linguaggio di sviluppo, le quali si potranno quindi appoggiare sull'architettura di Croquet per funzionare e comunicare, avendo quindi a disposizione tutte le garanzie che vengono offerte da Croquet e dalla sua architettura.
Resumo:
Il tema della biodiversità sta assumendo sempre più importanza negli ultimi decenni a causa delle condizioni di rischio, dovute alle attività umane, a cui l'intero mondo naturale è costantemente sottoposto. In questo contesto diventa sempre più importante l'educazione ambientale per aumentare la consapevolezza delle persone e per far si che ognuno possa adottare i dovuti accorgimenti nel rispetto e nella preservazione della natura. Questo progetto nasce con l'obiettivo di approfondire il tema della sensibilizzazione, attraverso lo sviluppo di una applicazione nativa android in grado di classificare gli insetti impollinatori e che, grazie all'integrazione di elementi di gamification, sia in grado di motivare l'utente ad approfondire le proprie conoscenze. Il progetto di tesi è suddiviso in tre capitoli: il primo descrive i concetti di biodiversità, gamification e citizen science su cui si basa l'elaborato; il secondo capitolo rappresenta la fase di progettazione per strutturare il database, le interfacce grafiche e per capire le tecnologie migliore da utilizzare; infine il terzo capitolo mostra l'implementazione completa del progetto, descrivendone nel dettaglio le funzionalità.
Resumo:
L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.
Resumo:
L'obiettivo di questo elaborato di tesi è la modellazione grafica delle cabine di pilotaggio di due elicotteri civili: si prevede una futura implementazione del modello di volo completo sul simulatore FlightGear. I due velivoli presi in considerazione sono stati sviluppati dall'azienda AgustaWestland e sono denominati AW109 e AW139. I modelli di volo sono composti da una parte grafica e dal modello dinamico del volo. La presente tesi si occupa del primo aspetto. Il lavoro di tesi è iniziato con una fase preliminare di ricerca che ha richiesto lo studio di come i modelli dinamici di volo siano implementati nel simulatore FlightGear; è stato, inoltre, approfondito l'utilizzo del linguaggio di markup XML necessario a descrivere il funzionamento e le caratteristiche dei velivoli in FlightGear. Ha fatto seguito la fase di scrittura dei file XML, facendo riferimento a modelli di elicotteri preesistenti e all'effettiva modellazione degli strumenti di bordo, attraverso il programma CAD Blender. Nella fase finale sono stati studiati e posizionati i vari strumenti principali di bordo, consultando i manuali degli elicotteri e ottenendo delle cabine di pilotaggio del tutto simili a quelle reali dei velivoli considerati. Gli sviluppi futuri di questo lavoro prevedono l'integrazione dei modelli grafici qui implementati nel modello di volo completo dei due elicotteri presi in considerazione.
Resumo:
Nel mondo odierno la crescente richiesta di sicurezza ha evidenziato la necessità di sviluppare tecniche di identificazione degli individui che superino le problematiche delle metodologie tradizionali. Da qui nasce il concetto di identificazione basato sulla biometria. Spostando l’attenzione su ciò che un individuo è, cioè i suoi tratti biometrici, è possibile aumentare notevolmente la sicurezza. Le tecniche biometriche sono studiate per verificare l’identità di una persona, ossia comprovare che è chi dichiara di essere, o per identificare una persona, ossia scoprire la sua identità. Le caratteristiche fisiologiche o comportamentali di una persona che permettono di fare ciò sono dette dati biometrici. Tra questi si collocano la geometria del volto, le impronte digitali, la geometria della mano, la retina, l’iride, la voce, la firma, il DNA. I più recenti sviluppi in materia hanno permesso l’introduzione di tecniche chiamate Biometric Template Protection Schemes. Questi schemi sono nati proprio allo scopo di fornire un ulteriore strato di sicurezza per proteggere i dati biometrici degli individui. Questi schemi di protezione sono altamente innovativi e aprono la strada a numerose nuove implementazioni ancora in fase di sviluppo.
Resumo:
L'efficienza dei computer ha un limite inferiore dettato dal principio di Landauer. La distruzione di una qualsiasi informazione ha un costo energetico per la dissipazione dei bit che la formavano. L'unico modo per aggirare il principio di Landauer è attraverso la reversibilità. Questa tecnica di computazione ci permette di eseguire un programma senza dover distruggere informazioni e quindi, senza dissipare bit. Molti algoritmi ai giorni nostri hanno un grande impatto energetico sul mondo, ed uno di questi è SHA256, l'algoritmo usato nella block-chain di Bitcoin. Questa tesi si pone l'obbiettivo di analizzare il consumo energetico e di memoria di una implementazione di SHA256 reversibile ideale.
Resumo:
Blazor è un innovativo framework di Microsoft per lo sviluppo di applicazioni web in C#, HTML e CSS. Questo framework non possiede un designer visuale, ovvero un supporto grafico "drag-and-drop" alla creazione delle web applications. Questa tesi affronta la progettazione e la prototipazione di "Blazor Designer", un DSL (Domain-Specific Language) grafico a supporto dello sviluppo applicazioni web a pagina singola (SPA) sviluppato in collaborazione con IPREL Progetti srl, società del gruppo SACMI. Nella tesi si fa una analisi delle tecnologie messe a disposizione da Blazor, compreso WebAssembly, si discutono le caratteristiche e i vantaggi dei DSL, si descrive la progettazione e l'implementazione di "Blazor Designer" come estensione di Visual Studio. La conclusione riassume i risultati raggiunti, i limiti e le opportunità future: un DSL è effettivamente in grado di rendere più user-friendly e semplice lo sviluppo, ma lo strumento deve essere integrato per essere sfruttato pienamente.
Resumo:
Questa tesi elabora un sistema di filtraggio delle pseudodistanze calcolate da un ricevitore GPS, al fine di ottenere un miglior posizionamento. Infatti, dopo aver analizzato e quindi filtrato i dati in ingresso tramite l’impiego delle misure di fase, si può ottenere una precisione nell’ordine dei centimetri. La tecnica di filtraggio prende il nome di carrier-smoothing e permette di selezionare le misure di pseudorange mediante le misure di ADR (Accumulated Delta Range) grazie all’applicazione di una struttura a filtro complementare. Per svolgere questo tipo di lavoro, non è stato necessario l’utilizzo di un ricevitore GPS fisico, ma è stato realizzato, nell’ambiente Matlab/Simulink, un simulatore GNSS (Global Navigation Satellite System) che sostanzialmente emula quello che farebbe un ricevitore.
Resumo:
Lo scopo di questa tesi e studiare l’uso di ”cruscotti” (in inglese Dashboard) per il monitoraggio dello sviluppo software, approfondendo i metodi di raccolta delle metriche e come esse vengono gestite. Nello specifico, analizzerò l’ambiente di sviluppo Compositional Agile System (CAS), sviluppando un nuovo plugin per l’IDE Microsoft Visual Studio Code, che e open source. Verranno proposti nuovi metodi di implementazione e utilizzo delle Dashboard e possibili miglioramenti dell’ambiente CAS.
Resumo:
Descrizione, implementazione in Python e valutazione di modelli di Machine Learning e di tutte le sue fasi di Preprocessing, EDA, Training, Test e Evaluation, per valutare la qualità del vino attraverso le sue caratteristiche fisico-chimiche.
Resumo:
Obiettivo di questo lavoro di tesi consiste nell’analizzare la domanda che il matematico e logico inglese Alan Turing propose di considerare: “Can machines think?”. Il quesito, esaminato attraverso la formulazione del gioco dell’imitazione e ormai ricordato come Test di Turing, è talmente interessante da essere divenuto uno degli argomenti più discussi nell’ambito delle scienze cognitive, della filosofia della mente e dell’informatica. In particolare è stata fondata una disciplina, chiamata intelligenza artificiale o IA, che intende studiare e comprendere se e come un sistema informatico possa essere capace di simulare una mente umana e un suo tipico comportamento. Questa tesi presenta una disamina sull’intelligenza artificiale e sul Test di Turing. Dell’IA si prenderanno in esame alcune definizioni formali della disciplina, le teorie di intelligenza artificiale debole e forte, e in particolare l’esperimento mentale della Stanza Cinese, il machine learning, il deep learning e le reti neurali, alcuni loro esempi di implementazione in diversi ambiti e infine alcune questioni etiche relative all’IA. Successivamente verranno esaminati la descrizione del gioco dell’imitazione, le più importanti critiche ed obiezioni al test di Turing, una variante del test, chiamata Test di Turing Totale, il premio Loebner, le previsioni fatte dal matematico e alcuni tentativi di superamento del test, tra cui l’implementazione dei chatterbot ELIZA, ALICE ed Eugene Goostman. Saranno infine proposte delle conclusioni in merito al lavoro svolto.
Resumo:
L’eccessiva centralizzazione dei dati ha reso sempre più frequenti fenomeni di manomissione e condivisione delle informazioni degli utenti senza il consenso dei proprietari. Questi potenziali rischi hanno aumentato negli utenti l’esigenza di una maggiore autorità sui propri dati, suscitando l’interesse per il decentramento. Questa tesi analizza due approcci al decentramento che sono Solid e Blockchain, e si concentra sui sistemi legati al controllo degli accessi derivanti dalla combinazione di questi due approcci. L’analisi parte dal descrivere le principali caratteristiche e funzionalità di Solid e Blockchain. Successivamente, dalla tesi si evince come, questi due paradigmi combinati insieme, possano rappresentare una soluzione valida alla decentralizzazione dei dati e vengono illustrati i principali ambiti in cui possono essere applicati sistemi assisti da Blockchain per Solid. In particolare lo studio approfondisce l'applicazione al controllo degli accessi e autenticazione dei dati. Due sono i sistemi presi in esame e approfonditi in questa tesi ovvero BCSolid e TrustAccess. Entrambi sono stati descritti in maniera dettagliata delineando l’architettura, la progettazione, le tecniche crittografiche utilizzate e illustrando dei casi d’uso pratici. Nella parte finale di questo elaborato viene effettuato un confronto tra questi due sistemi e spiegati i motivi per cui Trust Access può essere considerato migliore di BCSolid.
Resumo:
L’idea di focalizzare la tesi sulla supply chain ed in particolare sulle tecniche lean per la sua ottimizzazione deriva dal fatto che si tratta di un nuovo modo di ragionare, di un approccio moderno perfettamente adattabile al contesto socio-economico attuale, teso ad accrescere la flessibilità e l’efficienza dell’impresa attraverso un ripensamento dell’intero flusso di creazione del valore. Verranno analizzate le caratteristiche generali di questo modello organizzativo, per poi addentrarsi nella sua applicazione ed infine i vantaggi e gli eventuali svantaggi che le organizzazioni devono affrontare per implementare operativamente le tecniche lean. L’analisi effettuata nella tesi è strutturata come segue: La parte iniziale del primo capitolo definisce il concetto generale di supply chain sottolineando il contesto di riferimento in cui oggi operano le attività produttive. Vengono poi riportati l’accezione e il valore della supply chain management e le sue problematiche annesse di gestione e controllo. Nella seconda parte del capitolo vengono analizzati e descritti i modelli letterari esistenti utili per descrivere, impostare e classificare una supply chain. Il secondo capitolo, dopo una breve esposizione storica che descrive le origini della metodologia lean production, è orientato alla raccolta delle definizioni e alle loro differenti visioni tratte dal mondo della letteratura. Segue una parte più analitica, dove vengono analizzati in maniera dettagliata gli obiettivi, gli strumenti ed i principi che la filosofia lean prevede. Nel terzo capitolo viene approfondita la VSM, uno degli strumenti di principale importanza secondo le logiche della lean manufacturing. Vengono analizzati gli step necessari per una corretta implementazione, illustrando prima la simbologia internazionale necessaria per una sua comprensione e realizzazione e poi definiti gli step da applicare non solo per una semplice realizzazione, ma per l’ottenimento di una value stream map in ottica lean.
Resumo:
Nei prossimi anni è atteso un aggiornamento sostanziale di LHC, che prevede di aumentare la luminosità integrata di un fattore 10 rispetto a quella attuale. Tale parametro è proporzionale al numero di collisioni per unità di tempo. Per questo, le risorse computazionali necessarie a tutti i livelli della ricostruzione cresceranno notevolmente. Dunque, la collaborazione CMS ha cominciato già da alcuni anni ad esplorare le possibilità offerte dal calcolo eterogeneo, ovvero la pratica di distribuire la computazione tra CPU e altri acceleratori dedicati, come ad esempio schede grafiche (GPU). Una delle difficoltà di questo approccio è la necessità di scrivere, validare e mantenere codice diverso per ogni dispositivo su cui dovrà essere eseguito. Questa tesi presenta la possibilità di usare SYCL per tradurre codice per la ricostruzione di eventi in modo che sia eseguibile ed efficiente su diversi dispositivi senza modifiche sostanziali. SYCL è un livello di astrazione per il calcolo eterogeneo, che rispetta lo standard ISO C++. Questo studio si concentra sul porting di un algoritmo di clustering dei depositi di energia calorimetrici, CLUE, usando oneAPI, l'implementazione SYCL supportata da Intel. Inizialmente, è stato tradotto l'algoritmo nella sua versione standalone, principalmente per prendere familiarità con SYCL e per la comodità di confronto delle performance con le versioni già esistenti. In questo caso, le prestazioni sono molto simili a quelle di codice CUDA nativo, a parità di hardware. Per validare la fisica, l'algoritmo è stato integrato all'interno di una versione ridotta del framework usato da CMS per la ricostruzione. I risultati fisici sono identici alle altre implementazioni mentre, dal punto di vista delle prestazioni computazionali, in alcuni casi, SYCL produce codice più veloce di altri livelli di astrazione adottati da CMS, presentandosi dunque come una possibilità interessante per il futuro del calcolo eterogeneo nella fisica delle alte energie.