585 resultados para Sistema di feedback,Sostenibilità,Machine learning,Agenda 2030,SDI
Resumo:
L’attività di tirocinio è iniziata con lo studio dei sottomarini e dei loro apparati. Una volta individuate le criticità del caso di studio è stata avviata una fase di ricerca bibliografica sui materiali e sui relativi processi tribologici coinvolti nello strisciamento tra vite e madrevite. La ricerca si è poi concentrata sui fenomeni di corrosione e sui materiali adatti a contrastarla; in base ai dati raccolti ne è stata selezionata una coppia per vite e madrevite. A questo punto è stata effettuata la modellazione CAD 3D del sistema di sollevamento, modellando i principali elementi del meccanismo, cioè la vite, la madrevite e i componenti che ospitano cuscinetti e guarnizioni. Contemporaneamente alla fase di disegno è stato effettuato il dimensionamento del sistema vite-madrevite e dei dispositivi necessari al suo funzionamento. Durante questa fase è stata progettata una legge di moto della vite tale da consentire prestazioni equivalenti o migliori del sistema idraulico da sostituire. Per la vite, oltre alle verifiche statiche e a fatica, è stato necessario effettuare le verifiche a carico di punta e di velocità critica. Durante i calcoli riguardanti la fatica, sono stati valutati gli effetti dovuti alla presenza della filettatura, calcolando i coefficienti di concentrazione delle tensioni grazie ad apposite simulazioni FEM. Inoltre, è stato dimensionato il collegamento tramite linguetta al motoriduttore. Dopo aver effettuato il dimensionamento statico della madrevite ed eseguito una verifica dei parametri che ne determinano l’usura, sono stati scelti i componenti commerciali come cuscinetti, guarnizioni e tenute. Terminata la fase di dimensionamento dei componenti è stato effettuato un approfondimento relativo al gruppo motoriduttore e al meccanismo frenante. Nei capitoli conclusivi sono stati valutati aspetti come la gestione dei carichi radiali, i test necessari ad ultimare la progettazione e i possibili sviluppi futuri.
Resumo:
Il rapido sviluppo dell'economia e della tecnologia ha portato rapidi cambiamenti nella vita delle persone. Solo avendo un sonno di alta qualità possiamo dare il meglio ed essere veramente produttivi e produttivi.Invertire giorno e notte, procrastinare il sonno e stare alzati fino a tardi sono diventate abitudini comuni delle persone moderne. Queste cattive abitudini del sonno hanno un impatto sulla salute fisica, sull'efficienza del lavoro e dello studio e sulla vita delle persone. Miatal Tracker è un software di monitoraggio del sonno per i mercati europeo e americano e fornisce anche molti audio per dormire, corsi di meditazione e conoscenze relative al sonno. Durante il mio tirocinio, il team ha scoperto che i nostri prodotti sono meno differenziati da prodotti simili sul mercato. Per aiutare meglio gli utenti a risolvere i problemi di insonnia e migliorare la qualità del sonno, estraiamo metodi di terapia comportamentale dalla CBT-I migliorando così l'insonnia. Basato sulla progettazione della persuasione e della guida, migliora l'esecuzione dei comportamenti target e aiuta gli utenti a formare buone abitudini di sonno. Dal punto di vista del design, vengono studiate le ragioni di questi fenomeni e, combinate con le pertinenti conoscenze di psicologia e scienze comportamentali, viene esplorato come aiutare le abitudini di lavoro e di riposo delle persone. Prendendo questo come un'idea di design, la progettazione di prodotti e software applicativo si basa sulla progettazione del prodotto, integrata da applicazioni software, che combinano abitudini del sonno, prodotti e monitoraggio del sonno per formare un sistema di prodotti di promemoria, simboli e feedback, aiutando gli utenti a formare un buon sistema di prodotti Le abitudini del sonno, attraverso una guida non coercitiva, cambiano gli atteggiamenti e i comportamenti degli utenti verso l'obiettivo di ottenere un sonno di qualità.
Resumo:
Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.
Resumo:
La prima parte della seguente tesi intende studiare lo stato dell’arte in ambito delle principali tecnologie di smaltimento e di recupero dei rifiuti da costruzione, per poi analizzare le metodologie di analisi del sistema di decostruzione, basate su processi di calcolo semplificati. La seconda parte si concentra invece sul confronto tra due ipotesi di intervento differenti: uno scenario di riqualificazione energetica e uno di demolizione e ricostruzione. L’obiettivo della ricerca è indagare quale dei due interventi sia il più circolare e sostenibile, dal punto di vista ambientale ed economico. Questo obiettivo si concretizza mediante lo svolgimento di una analisi LCA attraverso l’utilizzo del software OneClick LCA. Il caso di studio sul quale viene svolta tale indagine consiste nella villa realizzata agli inizi del Novecento, appartenente al complesso “Corte Palazzo” sito ad Argelato (Bologna). Per lo scenario di demolizione, dopo una prima analisi iniziale delle tecniche circolari da poter applicare più adeguate al contesto esistente, è stato sviluppato un progetto che rispettasse le stesse caratteristiche dimensionali (in termini di sagoma) e le stesse prestazioni dell’involucro (in termini di trasmittanza termica) dell’edificio riqualificato. Il metodo di analisi proposto, reiterabile e proposto ad altri casi di studio, eventualmente implementato per includere tutti i materiali che compongono il sistema costruttivo e non soltanto quelli dell’involucro, rappresenta un efficace strumento di valutazione dell’impatto ambientale ed economico degli interventi, per consentire ai progettisti e ai committenti di compiere scelte più consapevoli.
Resumo:
L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
Many real-word decision- making problems are defined based on forecast parameters: for example, one may plan an urban route by relying on traffic predictions. In these cases, the conventional approach consists in training a predictor and then solving an optimization problem. This may be problematic since mistakes made by the predictor may trick the optimizer into taking dramatically wrong decisions. Recently, the field of Decision-Focused Learning overcomes this limitation by merging the two stages at training time, so that predictions are rewarded and penalized based on their outcome in the optimization problem. There are however still significant challenges toward a widespread adoption of the method, mostly related to the limitation in terms of generality and scalability. One possible solution for dealing with the second problem is introducing a caching-based approach, to speed up the training process. This project aims to investigate these techniques, in order to reduce even more, the solver calls. For each considered method, we designed a particular smart sampling approach, based on their characteristics. In the case of the SPO method, we ended up discovering that it is only necessary to initialize the cache with only several solutions; those needed to filter the elements that we still need to properly learn. For the Blackbox method, we designed a smart sampling approach, based on inferred solutions.
Resumo:
L’istruzione superiore in Europa è stata oggetto di un significativo processo di riforma: è aumentato l’interesse per un modello di apprendimento intorno ai progetti, centrato sullo studente, che favorisse lo sviluppo di competenze trasversali – il project-based learning (PBL). Inserire il PBL nelle Università richiede un processo di innovazione didattica: il curriculum di un corso PBL e le competenze richieste all’insegnante si differenziano dall’apprendimento tradizionale. Senza un'adeguata attenzione ai metodi di supporto per insegnanti e studenti, questi approcci innovativi non saranno ampiamente adottati. L’obiettivo di questo studio è determinare in che modo sia possibile implementare un corso PBL non presenziato da figure esperte di PBL. Le domande della ricerca sono: è possibile implementare efficacemente un approccio PBL senza il coinvolgimento di esperti dei metodi di progettazione? come si declinano i ruoli della facilitazione secondo questa configurazione: come si definisce il ruolo di tutor d’aula? come rafforzare il supporto per l’implementazione del corso? Per rispondere alle domande di ricerca è stata utilizzata la metodologia AIM-R. Viene presentata la prima iterazione dell’implementazione di un corso di questo tipo, durante la quale sono state svolte attività di ricerca e raccolta dati. L’attività di facilitazione è affidata a tre figure diverse: docente, tutor d’aula e coach professionisti. Su questa base, sono stati definiti gli elementi costituenti un kit di materiale a supporto per l’implementazione di corsi PBL. Oltre a un set di documenti e strumenti condivisi, sono stati elaborati i vademecum per guidare studenti, tutor e docenti all’implementazione di questo tipo di corsi. Ricerche future dovranno essere volte a identificare fattori aggiuntivi che rendano applicabile il kit di supporto per corsi basati su un modello diverso dal Tech to Market o che utilizzino strumenti di progettazione diversi da quelli proposti durante la prima iterazione.
Resumo:
Il presente elaborato analizza le rese del sistema di interpretazione automatica WT2 Plus di Timekettle in un reale contesto didattico. Nello specifico, sono state condotte tre sperimentazioni presso l’Accademia Europea di Manga utilizzando due modalità di interpretazione supportate dal dispositivo. L’obiettivo è valutare la qualità di un sistema di interpretazione automatica in un contesto reale, dato che allo stato attuale mancano studi che valutino la performance di questi dispositivi nei reali contesti per i quali sono stati sviluppati. Il primo capitolo ripercorre la storia dell’interpretazione automatica, cui fa seguito la spiegazione della tecnologia alla base dei sistemi disponibili sul mercato, di cui poi si presenta lo stato dell’arte. Successivamente si delinea in breve il prossimo passaggio evolutivo nell’interpretazione automatica e si analizzano tre casi studio simili a quello proposto. Il capitolo si conclude con l’approccio scelto per valutare la performance del dispositivo. Il secondo capitolo, dedicato alla metodologia, si apre con una panoramica su WT2 Plus e sull’azienda produttrice per poi descrivere il metodo usato nelle sperimentazioni. Nello specifico, le sperimentazioni sono state condotte durante alcune delle attività previste nel normale svolgimento delle lezioni presso l’Accademia Europea di Manga con il coinvolgimento di uno studente anglofono e di due membri del personale accademico. I dati raccolti sono analizzati e discussi rispettivamente nei capitoli 3 e 4. I risultati ottenuti sembrano suggerire che il dispositivo non sia, allo stato attuale, compatibile con un reale contesto didattico, per via del quasi mancato funzionamento di una delle modalità prescelte, per il servizio di interpretazione, che risulta ancora troppo letterale, la monotonia dell’intonazione della voce automatica e infine per la traduzione quasi completamente errata della terminologia tecnica.
Resumo:
La tesi di laurea, di tipo sperimentale, nasce dall’esigenza di progettare un sistema di force feedback da installare sui comandi di un simulatore di volo per elicottero, prevedendo di utilizzare tecnologie additive per la produzione dei componenti. Sono state, quindi, presentate alcune proposte per il soddisfacimento dei requisiti di progetto. Tra le due soluzioni progettuali individuate, una è stata scartata, mentre l'altra, basata su un collare da montare sul comando del ciclico e su un disegno per il supporto del sistema di ritenuta, è stata sviluppata. Sono state fatte, di conseguenza, assieme a quelle di tipo progettuale, alcune scelte legate alla pianificazione meccanica (ad esempio, scelta delle viti e delle molle). Il risultato finale è un sistema di force feedback funzionante, in cui la leva del comando ciclico del simulatore di volo per elicottero oppone uno sforzo in seguito ad una deflessione da parte del pilota.
Resumo:
Questo studio si pone come obiettivo lo sviluppo e la sperimentazione di un metodo per eseguire un benchmarking di due diversi sistemi di Additive Manufacturing mediante macchina di misura a coordinate Renishaw Cyclone. In particolare sono valutate le prestazioni in termini di precisione di forma di un sistema di tipo FDM e di uno di tipo PolyJet al fine di ottenere dati indicanti le potenzialità di queste due tecnologie per parti di piccole dimensioni. Dopo un’introduzione generale sull’Additive Manufacturing, si scende nei dettagli delle due tecniche oggetto dello studio e si discute di come strutturare il piano sperimentale in funzione degli obiettivi dell’attività e dei metodi scelti per l’acquisizione e la valutazione dei dati. Si parte, infatti, con la fabbricazione di un modello di benchmark, le cui geometrie vengono poi rilevate tramite una macchina di misura a coordinate per ottenere i valori di precisione di forma, che sono presentati come tolleranze geometriche del sistema GD&T. Successivamente, si descrivono tutte le fasi dell’attività sperimentale, iniziando con l’ideazione del modello di benchmark e proseguendo con i processi di fabbricazione e misurazione, per poi arrivare alla deduzione dei valori di precisione di forma tramite un post-processing dei dati. Infine, si presentano i valori di tolleranza ottenuti e si traggono le conclusioni riguardo la riuscita dell’attività sperimentale e il confronto tra le due tecnologie di Additive Manufacturing.
Resumo:
Lo scopo di questo studio è l’implementazione di un sistema di navigazione autonomo in grado di calcolare la traiettoria di un mezzo aereo, noti che siano a priori dei punti di posizione detti waypoint. A partire da questa traiettoria, è possibile ottenere la sua rappresentazione in un codice che mette a disposizione immagini satellitari e ricavare le viste del terreno sorvolato in una serie di punti calcolati, in modo da garantire in ogni sequenza la presenza di elementi comuni rispetto a quella precedente. Lo scopo della realizzazione di questa banca dati è rendere possibili futuri sviluppi di algoritmi di navigazione basati su deep learning e reti neurali. Le immagini virtuali ottenute del terreno saranno in futuro applicate alla navigazione autonoma per agricoltura di precisione mediante droni. Per lo studio condotto è stato simulato un generico velivolo, con o senza pilota, dotato di una videocamera fissata su una sospensione cardanica a tre assi (gimbal). La tesi, dunque, introduce ai più comuni metodi di determinazione della posizione dei velivoli e alle più recenti soluzioni basate su algoritmi di Deep Learning e sistemi vision-based con reti neurali e segue in un approfondimento sul metodo di conversione degli angoli e sulla teoria matematica che ne sta alla base. Successivamente, analizza nel dettaglio il processo di simulazione della navigazione autonoma e della determinazione della traiettoria in ambiente software Matlab e Simulink, procedendo nell’analisi di alcuni casi di studio in ambienti realistici. L’elaborato si conclude con un breve riepilogo di quanto svolto e con alcune considerazioni sugli sviluppi futuri.
Resumo:
La volontà da parte degli studenti di acquisire maggiore consapevolezza rispetto ai loro interessi, da poter sfruttare nel percorso professionale post-laurea, non riesce a trovare fondamento all’interno di percorsi di apprendimento preconfezionati. Attraverso l’analisi delle esigenze degli studenti, la loro profilazione in personas e l’analisi del contesto imprenditoriale, nello specifico all’interno dell’ecosistema delle StartUp, l’elaborato propone la progettazione di un minor in entrepreneurship presso l’Alma Mater Studiorum – Università di Bologna, offrendo una modalità di implementazione di supporto per gli stessi scopi all’interno di altri Atenei, fornendo un metodo e delle linee guida di supporto al progettista. Fondamentali strumenti per l’analisi e la progettazione sono stati il Design Thinking e il Personal Business Model Canvas.