205 resultados para Morphing, classificazione
Resumo:
A differenza di quanto avviene nel commercio tradizionale, in quello online il cliente non ha la possibilità di toccare con mano o provare il prodotto. La decisione di acquisto viene maturata in base ai dati messi a disposizione dal venditore attraverso titolo, descrizioni, immagini e alle recensioni di clienti precedenti. É quindi possibile prevedere quanto un prodotto venderà sulla base di queste informazioni. La maggior parte delle soluzioni attualmente presenti in letteratura effettua previsioni basandosi sulle recensioni, oppure analizzando il linguaggio usato nelle descrizioni per capire come questo influenzi le vendite. Le recensioni, tuttavia, non sono informazioni note ai venditori prima della commercializzazione del prodotto; usando solo dati testuali, inoltre, si tralascia l’influenza delle immagini. L'obiettivo di questa tesi è usare modelli di machine learning per prevedere il successo di vendita di un prodotto a partire dalle informazioni disponibili al venditore prima della commercializzazione. Si fa questo introducendo un modello cross-modale basato su Vision-Language Transformer in grado di effettuare classificazione. Un modello di questo tipo può aiutare i venditori a massimizzare il successo di vendita dei prodotti. A causa della mancanza, in letteratura, di dataset contenenti informazioni relative a prodotti venduti online che includono l’indicazione del successo di vendita, il lavoro svolto comprende la realizzazione di un dataset adatto a testare la soluzione sviluppata. Il dataset contiene un elenco di 78300 prodotti di Moda venduti su Amazon, per ognuno dei quali vengono riportate le principali informazioni messe a disposizione dal venditore e una misura di successo sul mercato. Questa viene ricavata a partire dal gradimento espresso dagli acquirenti e dal posizionamento del prodotto in una graduatoria basata sul numero di esemplari venduti.
Resumo:
Vista la crescente necessità di svolgere progetti d'innovazione guidati dalle nuove tecnologie, la presente ricerca risponde all'esigenza di trovare una metodologia efficace per poterli affrontare proficuamente. In un primo momento, l'elaborato propone una metodologia che permette di elaborare una classificazione dei progetti d'innovazione technology-driven in classi ed un pacchetto di tools funzionali al riconoscimento dell'appartenenza alle stesse. In un secondo momento, giunti a comprensione del fatto che ad ognuna delle classi corrisponde uno specifico fine raggiungibile con una specifica metodologia, lo studio descrive la metodologia seguita per raggiungere una efficace e ripetibile elaborazione di principi progettuali, buone pratiche e strumenti che permettano ad una Organizzazione di appropriarsi del valore di una tecnologia General Purpose (GPT) attraverso l'ideazione di soluzioni innovativa. La progettazione è figlia di un approccio di Design Thinking (DT), sia poichè esso è stato usato nello svolgimento stesso della ricerca, sia perchè la metodologia DT è alla base della modellazione del processo proposto per la classe.
Resumo:
Il riconoscimento delle condizioni del manto stradale partendo esclusivamente dai dati raccolti dallo smartphone di un ciclista a bordo del suo mezzo è un ambito di ricerca finora poco esplorato. Per lo sviluppo di questa tesi è stata sviluppata un'apposita applicazione, che combinata a script Python permette di riconoscere differenti tipologie di asfalto. L’applicazione raccoglie i dati rilevati dai sensori di movimento integrati nello smartphone, che registra i movimenti mentre il ciclista è alla guida del suo mezzo. Lo smartphone è fissato in un apposito holder fissato sul manubrio della bicicletta e registra i dati provenienti da giroscopio, accelerometro e magnetometro. I dati sono memorizzati su file CSV, che sono elaborati fino ad ottenere un unico DataSet contenente tutti i dati raccolti con le features estratte mediante appositi script Python. A ogni record sarà assegnato un cluster deciso in base ai risultati prodotti da K-means, risultati utilizzati in seguito per allenare algoritmi Supervised. Lo scopo degli algoritmi è riconoscere la tipologia di manto stradale partendo da questi dati. Per l’allenamento, il DataSet è stato diviso in due parti: il training set dal quale gli algoritmi imparano a classificare i dati e il test set sul quale gli algoritmi applicano ciò che hanno imparato per dare in output la classificazione che ritengono idonea. Confrontando le previsioni degli algoritmi con quello che i dati effettivamente rappresentano si ottiene la misura dell’accuratezza dell’algoritmo.
Resumo:
Il volume di tesi ha riguardato lo sviluppo di un'applicazione mobile che sfrutta la Realtà Aumentata e il Machine Learning nel contesto della biodiversità. Nello specifico si è realizzato un modello di AI che permetta la classificazione di immagini di fiori. Tale modello è stato poi integrato in Android, al fine della realizzazione di un'app che riesca a riconoscere specifiche specie di fiori, oltre a individuare gli insetti impollinatori attratti da essi e rappresentarli in Realtà Aumentata.
Resumo:
La decodifica dei segnali elettroencefalografici (EEG) consiste nell’analisi del segnale per classificare le azioni o lo stato cognitivo di un soggetto. Questi studi possono permettere di comprendere meglio i correlati neurali alla base del movimento, oltre che avere un’applicazione pratica nelle Brain Computer Interfaces. In questo ambito, di rilievo sono le reti neurali convoluzionali (Convolutional Neural Networks, CNNs), che grazie alle loro elevate performance stanno acquisendo importanza nella decodifica del segnale EEG. In questo elaborato di tesi è stata addestrata una CNN precedentemente proposta in letteratura, EEGNet, per classificare i segnali EEG acquisiti durante movimenti di reaching del braccio dominante, sulla base della posizione del target da raggiungere. I dati sono stati acquisiti su dieci soggetti grazie al protocollo sviluppato in questo lavoro, in cui 5 led disposti su una semicirconferenza rappresentano i target del movimento e l’accensione casuale di un led identifica il target da raggiungere in ciascuna prova. I segnali EEG acquisiti sono stati quindi ricampionati, filtrati e suddivisi in epoche di due secondi attorno all’inizio di ciascun movimento, rimuovendo gli artefatti oculari mediante ICA. La rete è stata valutata in tre task di classificazione, uno a cinque classi (una posizione target per classe) e due a tre classi (raggruppando più posizioni target per classe). Per ogni task, la rete è stata addestrata in cross-validazione utilizzando un approccio within-subject. Con questo approccio sono state addestrate e validate 15 CNNs diverse per ogni soggetto. Infine, è stato calcolato l’F1 score per ciascun task di classificazione, mediando i risultati sui soggetti, per valutare quantitativamente le performance della CNN che sono risultati migliori nel classificare target disposti a destra e a sinistra.
Resumo:
Il presente elaborato si prefigge il raggiungimento di un duplice obiettivo: da un lato, l’analisi dettagliata delle difficoltà riscontrabili dall’interprete di intercettazioni durante l’esercizio della professione, e dall’altro, l’elaborazione di suggerimenti e buone pratiche per coloro che si apprestano a svolgere un incarico di interpretazione di intercettazioni. In primo luogo, vengono descritte le peculiarità dell’interpretazione per i servizi pubblici e dell’interpretazione giuridico-giudiziaria, macro ambito dell’interpretazione di intercettazioni. In seguito, si accenna brevemente all’interpretazione dialogica. In secondo luogo, si indaga l’interpretazione giudiziaria; vengono esposte le competenze che un interprete giudiziario deve possedere, la metodologia di lavoro, gli interlocutori e i contesti lavorativi. Successivamente, vengono analizzate le intercettazioni di conversazioni, esaminandone la duplice valenza di strumento e fonte di prova e inquadrandole all’interno del sistema giuridico italiano. La parte conclusiva affronta il tema centrale dell’intero elaborato, ossia l’interpretazione di intercettazioni di conversazioni. Innanzitutto, vengono definite dal punto di vista teorico le caratteristiche specifiche della suddetta modalità interpretativa, la sequenzialità del lavoro dell’interprete e le sfide che questa modalità sottende. Alla parte teorica fa seguito un’analisi delle difficoltà riscontrabili dall’interprete di intercettazioni; queste sono state suddivise in tre macrocategorie, quali qualità dell’audio, elementi linguistici e socioculturali ed elementi impliciti. Per poter comprendere appieno l’analisi, vengono presentati i materiali e la metodologia utilizzati e la classificazione delle principali difficoltà. Il presente elaborato si conclude fornendo una serie di suggerimenti e buone pratiche da seguire al fine di affrontare al meglio la preparazione e lo svolgimento di un incarico di interpretazione di intercettazioni.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
A fronte dei numerosi eventi di perdita di servizio o crolli di ponti degli ultimi anni, il loro adeguamento e/o miglioramento è divenuto prioritario. Con questo spirito si è posta l’attenzione sui ponti Gerber, descrivendo dapprima le ragioni tecniche e storiche del loro sviluppo, i problemi di degrado, ed infine i modelli disponibili per il calcolo della portanza delle selle. Consapevoli della ridotta durabilità di queste opere, e del fatto che le cerniere Gerber sono state ufficialmente classificate come punti critici da attenzionare ai sensi delle nuove “Linee guida per la classificazione e gestione del rischio, la valutazione della sicurezza ed il monitoraggio dei ponti esistenti” del 2020, sono stati approfonditi due scenari tipici di intervento su casi reali di ponti che presentassero giunti Gerber particolarmente ammalorati. La soluzione più conservativa e meno invasiva prevede il mantenimento in essere delle selle e si basa sul by-pass dei giunti stessi ottenuto attraverso il meccanismo “leva” che si instaura in un sistema di travi metalliche posto a sostegno delle travi d’impalcato. Quella di solidarizzare le travi rendendo il sistema iperstatico è invece la seconda soluzione analizzata. La chiusura delle selle consente di ottenere gli effetti benefici propri delle strutture iperstatiche, a spese comunque della nascita di sollecitazioni all’interno della trave originariamente compresa tra le cerniere. Si è infine accennato a ipotesi di miglioramento sismico dell’opera, trattato con la cucitura delle selle Gerber stesse, che hanno consentito all’impalcato di avere un comportamento monolitico. Il presente elaborato costituisce dunque un punto d’incontro tra i modelli teorici con cui si studiano i degradi e la capacità portante residua delle selle, e le soluzioni progettuali di intervento effettivamente utilizzate e disponibili per la messa in sicurezza di ponti con caratteristiche simili.
Resumo:
Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.
Resumo:
Il Deep Learning ha radicalmente trasformato il mondo del Machine Learning migliorando lo stato dell'arte in diversi campi che spaziano dalla computer vision al natural language processing. Non fermandosi a problemi di classificazione, negli ultimi anni, applicazioni di tipo generativo hanno portato alla creazione di immagini realistiche e documenti letterali. Il mondo della musica non è esente da una moltitudine di esperimenti nello stesso campo, con risultati ancora acerbi ma comunque potenzialmente interessanti. In questa tesi verrà discussa l'applicazione di un di modello appartenente alla famiglia del Deep Learning per la generazione di musica simbolica.
Resumo:
Questa tesi si ispira a lavori precedentemente portati avanti da altri studenti e si pone il problema della possibilit\`a di riconoscere se uno smartphone \`e utilizzato da un utente mentre esso si trova alla guida di un'autovettura. In essa verranno presentati vari metodi per risolvere questo problema di Machine Learning, ovvero realizzazione di dataset per l'allenamento di modelli e creazione e allenamento di modelli stessi, dediti al riconoscimento di un problema di classificazione binaria e riconoscimento di oggetti tramite Object Detection. Il cercare di riconoscere se l'utente \`e alla guida o meno, avverr\`a tramite l'output della fotocamera frontale dello smartphone, quindi lavoreremo su immagini, video e frame. Arriveremo a riconoscere la posizione della persona rappresentata da questi fotogrammi tramite un modello di Object Detection, che riconosce cintura e finestrino e determina se sono appartenenti al sedile e alla posizione del conducente o del passeggero. Vedremo alla fine, attraverso un'attenta analisi dei risultati ottenuti su ben 8 video diversi che saranno divisi in molti frame, che si ottengono risultati molto interessanti, dai quali si pu\`o prendere spunto per la creazione di un importante sistema di sicurezza alla guida.
Resumo:
L’elaborato consiste in una proposta di traduzione di un trailer di un videogioco, Genshin Impact, creato dall’azienda cinese Hoyoverse. La scelta è stata dettata da un profondo interesse verso la localizzazione, ovvero il processo di traduzione e adattamento dei videogiochi. La tesi si sviluppa in due capitoli: nel primo si analizza brevemente la storia della localizzazione dei videogiochi, soffermandosi poi su alcuni suoi aspetti come la localizzazione in sim-ship o in post-gold. Successivamente si guarda al videogioco come prodotto culturale e alle problematiche che un localizzatore deve affrontare, come la diversa tolleranza verso i contenuti e la censura. Il secondo capitolo, invece, vede la proposta di traduzione affiancata dai testi ufficiali cinesi e inglesi. A seguire, una breve analisi delle scelte traduttive e di alcune problematiche di traduzione attualmente presenti nel videogioco.
Resumo:
In questa tesi abbiamo analizzato il non backtracking PageRank, un algoritmo di classificazione variante del PageRank che non considera il backtracking, cioè i cammini che tornano nel nodo da cui sono partiti al passo subito successivo. Lo scopo di questa variante è ottenere una classificazione migliore in tutti quei problemi in cui il backtracking viene evitato. Siamo partiti introducendo il PageRank standard, per poi spiegare nel dettaglio il non backtracking PageRank e quali fossero le analogie e differenze tra i due. Ci siamo poi chiesti come risolvere computazionalmente il problema, studiando il risolutore di sistemi lineari GMRES e facendo delle osservazioni su come si possano ridurre il numero di iterazioni e il tempo di calcolo tramite il precondizionamento. Infine, abbiamo eseguito degli esperimenti sulle reti stradali di alcune città e confrontato i risultati ottenuti tramite le diverse classificazioni.
Resumo:
Questa tesi di laurea compie uno studio sull’ utilizzo di tecniche di web crawling, web scraping e Natural Language Processing per costruire automaticamente un dataset di documenti e una knowledge base di coppie verbo-oggetto utilizzabile per la classificazione di testi. Dopo una breve introduzione sulle tecniche utilizzate verrà presentato il metodo di generazione, prima in forma teorica e generalizzabile a qualunque classificazione basata su un insieme di argomenti, e poi in modo specifico attraverso un caso di studio: il software SDG Detector. In particolare quest ultimo riguarda l’applicazione pratica del metodo esposto per costruire una raccolta di informazioni utili alla classificazione di documenti in base alla presenza di uno o più Sustainable Development Goals. La parte relativa alla classificazione è curata dal co-autore di questa applicazione, la presente invece si concentra su un’analisi di correttezza e performance basata sull’espansione del dataset e della derivante base di conoscenza.
Resumo:
Questa tesi propone una panoramica sul funzionamento interno delle architetture alla base del deep learning e in particolare del geometric deep learning. Iniziando a discutere dalla storia degli algoritmi di intelligenza artificiale, vengono introdotti i principali costituenti di questi. In seguito vengono approfonditi alcuni elementi della teoria dei grafi, in particolare il concetto di laplaciano discreto e il suo ruolo nello studio del fenomeno di diffusione sui grafi. Infine vengono presentati alcuni algoritmi utilizzati nell'ambito del geometric deep learning su grafi per la classificazione di nodi. I concetti discussi vengono poi applicati nella realizzazione di un'architettura in grado di classficiare i nodi del dataset Zachary Karate Club.