285 resultados para Apprendimento, Automatico, Tris, Scacchi, Annotazioni, Gioco


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi tempi la questione su come arginare il problema della diffusione delle fake news è diventata predominante sia nel dibattito pubblico che politico; in quanto miliardi di terabyte di foto, testi, video, informazioni si muovono quotidianamente attraverso le piattaforme social persuadendo in maniera più o meno efficace ciascun utente. Questo è tutto amplificato dal fatto che il mondo dell'informazione sia radicalmente cambiato col passare del tempo, in risposta alla crescita del fabbisogno informativo, dando maggiore importanza al numero di click piuttosto che all'attendibilità dell'informazione stessa. Nel contesto appena descritto i social media e la rete in generale hanno un ruolo molto importante in quanto tutti hanno diritto di parola al di là di meriti o conoscenze personali. Quello che conta davvero non è l’aderenza ai fatti, quanto la conformità con ciò a cui si crede e con la propria visione del mondo. L'uso e il significato del termine fake news si è evoluto nel tempo. Sebbene originariamente fosse utilizzato per fare riferimento a informazioni false e spesso clamorose diffuse sotto le spoglie di notizie, il termine si è evoluto ed è diventato sinonimo di diffusione di informazioni false che possono differenziarsi in base ai mezzi utilizzati per la falsificazione o in base all'intento per il quale sono state diffuse. L'obiettivo di questa tesi è quello di introdurre una rassegna delle metodologie atte a identificare e classifcare le fake news. Molti esperti hanno studiato modi per analizzare manualmente l'autenticità delle notizie; tuttavia, come valutarla in modo efficace è ancora una questione aperta. Nello specifico, la tesi fornisce anche un contributo per limitare la diffusione delle fake news sui social network, in quanto queste potrebbero influenzare o alterare l'opinione pubblica, contribuendo ad alimentare teorie complottistiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

“Probabilità e gioco d’azzardo” è un progetto didattico interdisciplinare tra Matematica ed Educazione Civica elaborato per le classi seconde del Liceo Scientifico. Si introduce il concetto di probabilità per indagare le criticità legate al gioco d’azzardo e per capire come alcuni preconcetti e intuizioni relativi alla probabilità possano influenzarne l’analisi e la comprensione. Nel lavoro di tesi la dimensione teorica non è solo utile alla comprensione dell’aspetto pratico, ma ha un ruolo a sé stante e multidisciplinare: si ripercorre la storia dell’evoluzione della probabilità dalle origini alle moderne interpretazioni. L’analisi del concetto di equità nel SuperEnalotto e nella Roulette caratterizza la dimensione pratica dell’attività. L’apprendimento concettuale non ha un ruolo centrale: l’obiettivo del progetto è fornire agli studenti strumenti per imparare a ragionare, riflettere, mettere in discussione, argomentare e controbattere.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi tratta lo studio di fattibilità di un impianto automatico per l’assemblaggio di stampati in materiale plastico. Lo sviluppo della tesi si è basato sulla riproduzione a computer (utilizzando il software AutoMod) del layout futuro, delle movimentazioni di materiale e dell’analisi dei flussi che servono all’impianto e l’utilizzo del personale a bordo dello stesso. Successivamente, sviluppato il modello, si è andati a calcolare quale potesse essere il lotto ottimale di produzione che fosse in grado di individuare una produzione efficiente. Infine, è stata fatta l’analisi dell’investimento tramite foglio di calcolo Excel riportando i dati uscenti dal modello di simulazione insieme ad altri dati stimati e rilevati sul campo. Il programma ha come obiettivo l’analisi di fattibilità e la successiva decisione estratta dai dati sulla vantaggiosità o meno dell’investimento ed in quanto tempo l’azienda potrà rientrare economicamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Angiodroid The CO2 Injector è un dispositivo medico che permette il dosaggio di CO2 nelle cavità vascolari a volumi e pressioni controllate. La CO2 agisce come mezzo di contrasto durante gli esami angiografici, offrendo notevoli vantaggi e bassissimo tasso di complicazioni rispetto ai mezzi di contrasto iodati. L’oggetto di questa tesi è lo studio di due Essential Performance Requirements (EPR) di Angiodroid, definiti come le prestazioni di una funzione clinica diversa da quella relativa alla sicurezza di base, in cui la perdita o la degradazione oltre i limiti specificati dal produttore comporta un rischio inaccettabile. Gli EPR presi in considerazione sono il volume e la pressione di iniezione di CO2, in quanto l’erogazione affidabile e ripetibile del gas permette sia di garantire la sicurezza del paziente sia di standardizzare i protocolli di iniezione per i diversi distretti vascolari. Sovradosaggio e sovrapressione della somministrazione della dose di CO2 possono comportare potenziali rischi clinici per il paziente, mentre sottodosaggio e una sottopressione non sono legati a rischi clinici, piuttosto comportano una scarsa qualità dell’immagine radiologica. Lo scopo della tesi è quello di validare gli intervalli di precisione del volume e della pressione di iniezione in diversi scenari entro i quali il dispositivo è considerato conforme e sicuro. I test di validazione sono stati eseguiti su 5 iniettori al termine della loro life cycle (8 anni) attraverso un invecchiamento accelerato. I valori di volume e la pressione di iniezione sono stati esaminati sia in aria, cioè senza carico, sia su un modello di paziente simulato, quindi con carico, utilizzando introduttori e cateteri angiografici autorizzati dalla Food and Drug Administration. Tutte le analisi sono state effettuate simulando gli scenari di funzionamento dell'iniettore più critici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro di tesi è, quindi, quello di studiare delle soluzioni all'avanguardia ed effettuare la progettazione di un nuovo modulo innovativo di una web app attualmente in uso sul sito #Cesenadavivere di Casa Bufalini. Quest'ultima dovrà essere in grado di introdurre la navigazione di percorsi in modalità gaming, cioè tramite funzioni di riconoscimento automatico di punti di interesse come monumenti, edifici o stanze, a partire da immagini di elementi che li caratterizzano. Il progetto prevede anche di analizzare lo stato dell'arte dello sviluppo della web app e definirne al meglio l'evoluzione. Per renderlo possibile è necessario uno studio approfondito dello stato dell'arte di User Experience e Gamification. Queste due materie vengono sempre più utilizzate nella progettazione di applicazioni e tecnologie di contesti non di gioco, con il fine di aumentare il coinvolgimento degli utenti e migliorando la qualità del prodotto finale. Infatti, queste tecniche sono tutt'altro che utilizzate per il solo scopo di gioco, ma hanno il compito di rendere più fruibili e coinvolgenti le partecipazioni o utilizzi delle persone. L'obiettivo finale è quello di realizzare e proporre la realizzazione di un prototipo dell'interfaccia grafica che successivamente verrà valutata con un coinvolgimento di utenti target. Il risultato atteso sarà ottenere la migliore interfaccia grafica per soddisfare le necessità date dalla scelta delle possibili tecnologie da utilizzare. Queste necessità verranno prima ipotizzate dallo studio dello stato dell'arte delle materie e della piattaforma e poi verranno successivamente convalidate tramite dei test, i quali verranno effettuati cercando di coinvolgere un numero che vada da minimo cinque a dieci persone.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La classificazione di dati geometrici 3D come point cloud è un tema emergente nell'ambito della visione artificiale in quanto trova applicazione in molteplici contesti di guida autonoma, robotica e realtà aumentata. Sebbene nel mercato siano presenti una grande quantità di sensori in grado di ottenere scansioni reali, la loro annotazione costituisce un collo di bottiglia per la generazione di dataset. Per sopperire al problema si ricorre spesso alla domain adaptation sfruttando dati sintetici annotati. Questo elaborato si pone come obiettivo l'analisi e l'implementazione di metodi di domain adaptation per classificazione di point cloud mediante pseudo-labels. In particolare, sono stati condotti esperimenti all'interno del framework RefRec valutando la possibilità di sostituire nuove architetture di deep learning al modello preesistente. Tra queste, Transformer con mascheramento dell'input ha raggiunto risultati superiori allo stato dell'arte nell'adattamento da dati sintetici a reali (ModelNet->ScanNet) esaminato in questa tesi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’ambito videoludico è in forte espansione, andando a coinvolgere diversi settori ed ambiti. Infatti, i videogiochi possono avere scopi diversi e più articolati oltre al semplice intrattenimento e questo è proprio l'obiettivo dei Serious Game. Questi hanno come scopo quello di insegnare qualcosa tramite il gameplay stesso e vengono quindi utilizzati nel contesto educativo e dell'apprendimento. In questo contesto, il volume di tesi presenta il design e l'implementazione di un prototipo di serious game sviluppato per uno scopo ben definito: supporto e potenziamento dell’attenzione visuospaziale, facendo concentrare per l’appunto l’attenzione del giocatore sulle sue azioni, combinando facoltà visive, riflessi e anche memoria. Il gioco è pensato per essere adatto a tutti i giocatori, ma è stato sviluppato con un'attenzione particolare agli studenti che soffrono di Disturbi Specifici dell’Apprendimento (DSA). Il progetto è stato infatti sviluppato con Develop-Player, una Spin-off dell’Università di Bologna in cui psicologi, neuropsicologi e logopedisti hanno individuato nuovi metodi per potenziare i meccanismi più profondi dell’apprendimento e collaborano con informatici esperti nelle tecnologie più avanzate per l’implementazione di nuove esperienze interattive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il monitoraggio basato su emissioni acustiche (AE) guidate si è confermato tra le tecniche più affidabili nel campo del Non-Destructive Testing delle strutture planari, vista anche la sua semplicità implementativa, i bassi costi che lo caratterizzano, la non invasività e la possibilità di realizzare un sistema che agisca in maniera continuativa ed in tempo reale sfruttando reti di sensori permanentemente installati, senza la necessità di ispezioni periodiche. In tale contesto, è possibile sfruttare l’abilità dell’apprendimento automatico nell’individuazione dei pattern nascosti all’interno dei segnali grezzi registrati, ottenendo così informazioni utili ai fini dell’applicazione considerata. L’esecuzione on-edge dei modelli, ovvero sul punto di acquisizione, consente di superare le limitazioni imposte dal processamento centralizzato dei dati, con notevoli vantaggi in termini di consumo energetico, tempestività nella risposta ed integrità degli stessi. A questo scopo, si rivela però necessario sviluppare modelli compatibili con le stringenti risorse hardware dei dispositivi a basso costo tipicamente impiegati. In questo elaborato verranno prese in esame alcune tipologie di reti neurali artificiali per l’estrazione dell’istante di arrivo (ToA) di un’emissione acustica all’interno di una sequenza temporale, in particolare quelle convoluzionali (CNNs) ed una loro variante più recente, le CapsNet basate su rounting by agreement. L’individuazione dei ToA relativi al medesimo evento su segnali acquisiti in diverse posizioni spaziali consente infatti di localizzare la sorgente da cui esso è scaturito. Le dimensioni di questi modelli permettono di eseguire l’inferenza direttamente su edge-device. I risultati ottenuti confermano la maggiore robustezza delle tecniche di apprendimento profondo rispetto ai metodi statistici tradizionali nel far fronte a diverse tipologie di disturbo, in particolare negli scenari più critici dal punto di vista del rapporto segnale-rumore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella sede dell’azienda ospitante Alexide, si è ravvisata la mancanza di un sistema di controllo automatico da remoto dell’intero impianto di climatizzazione HVAC (Heating, Ventilation and Air Conditioning) utilizzato, e la soluzione migliore è risultata quella di attuare un processo di trasformazione della struttura in uno smart building. Ho quindi eseguito questa procedura di trasformazione digitale progettando e sviluppando un sistema distribuito in grado di gestire una serie di dati provenienti in tempo reale da sensori ambientali. L’architettura del sistema progettato è stata sviluppata in C# su ambiente dotNET, dove sono stati collezionati i dati necessari per il funzionamento del modello di predizione. Nella fattispecie sono stati utilizzati i dati provenienti dall’HVAC, da un sensore di temperatura interna dell'edificio e dal fotovoltaico installato nella struttura. La comunicazione tra il sistema distribuito e l’entità dell’HVAC avviene mediante il canale di comunicazione ModBus, mentre per quanto riguarda i dati della temperatura interna e del fotovoltaico questi vengono collezionati da sensori che inviano le informazioni sfruttando un canale di comunicazione che utilizza il protocollo MQTT, e lo stesso viene utilizzato come principale metodo di comunicazione all’interno del sistema, appoggiandosi ad un broker di messaggistica con modello publish/subscribe. L'automatizzazione del sistema è dovuta anche all'utilizzo di un modello di predizione con lo scopo di predire in maniera quanto più accurata possibile la temperatura interna all'edificio delle ore future. Per quanto riguarda il modello di predizione da me implementato e integrato nel sistema la scelta è stata quella di ispirarmi ad un modello ideato da Google nel 2014 ovvero il Sequence to Sequence. Il modello sviluppato si struttura come un encoder-decoder che utilizza le RNN, in particolare le reti LSTM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il documento riporta l'analisi di studio della redditività, in merito ad un eventuale investimento, conseguente all'acquisto di un macchinario automatizzato adibito allo smistamento pacchi di un'importante azienda internazionale che opera nel settore del trasporto merci: la DHL. Per la ricerca, sono state utilizzate informazioni, solo a fini statistici, reperite direttamente dall'azienda, previo il loro consenso al trattamento dei dati, presso la loro sede di Forlì. Queste non rappresentano, quindi, la reale situazione dell'azienda. Inoltre, le indicazioni relative al macchinario, che è il sorter automatico, sono state ricavate da manuali online o attraverso e-mail con gli uffici dell'azienda produttrice. Una volta quantificata la possibile redditività dell'investimento e il tempo necessario per essere vantaggioso per l'azienda, si sono redatte le conclusioni dello studio.