927 resultados para Apprendimento, Automatico, Tris, Scacchi, Annotazioni, Gioco
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.
Resumo:
Con questa ricerca si intende costruire una semiotica specifica che sia in grado di fare luce sui processi di apprendimento della lettoscrittura durante l’età evolutiva. È un campo di ricerca a cui hanno contribuito numerose discipline: la psicologia e le neuroscienze trattano la lettoscrittura come uno stato cognitivo a cui l’essere umano accede nel corso dello sviluppo individuale, mentre l’archeologia cognitiva e la linguistica considerano lo stesso fenomeno dal punto di vista della filogenesi culturale. Queste stesse discipline possono essere distinte in due categorie a seconda dell’adozione di una prospettiva internalista, in cui lettura e scrittura sono rappresentate come attività compiute dal cervello e dai neuroni, o di una prospettiva distribuita, in cui si tratta di studiare l’evoluzione e la presa in carico delle forme materiali della lingua scritta. Gli strumenti di una semiotica interpretativa e cognitiva consentono di mediare e tradurre tra queste prospettive differenti e rendere ragione del modo in cui l’apprendimento di una pratica culturale socialmente regolata e costruita a partire da forme materiali disponibili, produce profonde modificazioni a livello neurofisiologico, nei vincoli di un’architettura cerebrale che - per quanto plastica - pone divieti e passaggi obbligati. Questa ricerca propone un ruolo centrale della produzione segnica e dell’inferenza abduttiva nei processi di apprendimento, nel processo di acquisizione delle competenze fondamentali dell’emergent literacy (la scoperta del fonema e la phonemic awareness) e, conseguentemente, nei processi di riciclaggio ed exaptation che si danno a livello neurofisiologico.
Resumo:
La ricerca, di carattere esplorativo, prende spunto dal dibattito internazionale, sviluppatosi sul finire dello scorso secolo, sulla necessità di innovare il sistema educativo, in ottica di lifelong-learning, e favorire l’acquisizione delle competenze richieste nel XXI secolo. Le diverse indicazioni sollecitano una scuola intesa come Civic-center in grado di riconoscere gli apprendimenti extra-scolastici, con spazi di apprendimento innovativi funzionali a didattiche learner-centred. A circa trent’anni dalla Dichiarazione di Salamanca riteniamo necessario interrogarsi se queste innovazioni garantiscano l’inclusione e il successo formativo di tutti. La ricerca si articola in quattro studi di caso relativi a due scuole secondarie di secondo grado innovative italiane e due finlandesi. Si propone di comprendere sulla base delle percezioni di studenti, insegnanti, dirigenti se tale modello di scuola favorisca anche l’inclusione e il benessere di tutti gli studenti. Dall’analisi dei risultati sembra che, secondo le percezioni di coloro che hanno partecipato alla ricerca, le scuole siano riuscite a far coesistere innovazione e inclusione. In particolare, l’utilizzo di spazi di apprendimento innovativi e didattiche learner-centred all’interno di una scuola aperta al territorio in grado di riconoscere le competenze extra-scolastiche, sembrano favorire effettivamente l’inclusione di tutti gli studenti. Nonostante gli aspetti innovativi, restano tuttavia presenti all’interno delle scuole analizzate ancora diverse criticità che non consentono una piena inclusione for all
Resumo:
Nel quadro di alcuni filoni di ricerca inerenti alla promozione delle strategie cognitive, metacognitive e motivazionali degli studenti per una migliore efficacia del loro apprendimento (anche a livello universitario), il contributo presenta l’impianto e gli esiti di una ricerca empirica volta a indagare le percezioni degli studenti internazionali cinesi sulla loro esperienza universitaria in Italia, con un focus sulle eventuali difficoltà nell’adozione di un approccio autonomo e strategico all’apprendimento, e a sperimentare un intervento formativo messo a punto per sostenerli nel miglioramento del loro approccio all’apprendimento attraverso l’uso di procedure sistematiche di autoriflessione, self-recording e autovalutazione supportate dalla ricercatrice. Il disegno della ricerca è un quasi-esperimento a due gruppi con pre-test e post-test. Il campione è costituito da 60 studenti di diversi Dipartimenti dell’Università di Bologna che hanno partecipato volontariamente alla ricerca, di cui 30 hanno preso parte all’intervento. Gli strumenti utilizzati per la misurazione in ingresso e in uscita sono il Questionario sui Processi di Apprendimento e alcune scale del Questionario sulle Strategie di Apprendimento. Agli studenti del gruppo sperimentale è stato somministrato anche un questionario finale di valutazione del percorso formativo. Sono state inoltre effettuate alcune interviste a distanza di tempo come fase di follow up. Gli studenti in entrambi i gruppi affrontano sfide relative all’ambientamento nel contesto universitario italiano, con particolare riferimento a difficoltà linguistiche e di integrazione sociale. I principali fattori influenti sull’efficacia dello studio includono le barriere linguistiche, la gestione del tempo, la consapevolezza e l’uso delle strategie di studio. Nonostante emerga un miglioramento del gruppo sperimentale tra pre e post test, le differenze tra i due gruppi non sono risultate statisticamente significative. Tuttavia, i feedback forniti dagli studenti nel questionario di soddisfazione per il percorso formativo e nelle interviste post-intervento evidenziano percezioni positive sull’utilità del percorso, con benefici relativi al loro approccio allo studio.
Resumo:
Negli ultimi tempi la questione su come arginare il problema della diffusione delle fake news è diventata predominante sia nel dibattito pubblico che politico; in quanto miliardi di terabyte di foto, testi, video, informazioni si muovono quotidianamente attraverso le piattaforme social persuadendo in maniera più o meno efficace ciascun utente. Questo è tutto amplificato dal fatto che il mondo dell'informazione sia radicalmente cambiato col passare del tempo, in risposta alla crescita del fabbisogno informativo, dando maggiore importanza al numero di click piuttosto che all'attendibilità dell'informazione stessa. Nel contesto appena descritto i social media e la rete in generale hanno un ruolo molto importante in quanto tutti hanno diritto di parola al di là di meriti o conoscenze personali. Quello che conta davvero non è l’aderenza ai fatti, quanto la conformità con ciò a cui si crede e con la propria visione del mondo. L'uso e il significato del termine fake news si è evoluto nel tempo. Sebbene originariamente fosse utilizzato per fare riferimento a informazioni false e spesso clamorose diffuse sotto le spoglie di notizie, il termine si è evoluto ed è diventato sinonimo di diffusione di informazioni false che possono differenziarsi in base ai mezzi utilizzati per la falsificazione o in base all'intento per il quale sono state diffuse. L'obiettivo di questa tesi è quello di introdurre una rassegna delle metodologie atte a identificare e classifcare le fake news. Molti esperti hanno studiato modi per analizzare manualmente l'autenticità delle notizie; tuttavia, come valutarla in modo efficace è ancora una questione aperta. Nello specifico, la tesi fornisce anche un contributo per limitare la diffusione delle fake news sui social network, in quanto queste potrebbero influenzare o alterare l'opinione pubblica, contribuendo ad alimentare teorie complottistiche.
Resumo:
“Probabilità e gioco d’azzardo” è un progetto didattico interdisciplinare tra Matematica ed Educazione Civica elaborato per le classi seconde del Liceo Scientifico. Si introduce il concetto di probabilità per indagare le criticità legate al gioco d’azzardo e per capire come alcuni preconcetti e intuizioni relativi alla probabilità possano influenzarne l’analisi e la comprensione. Nel lavoro di tesi la dimensione teorica non è solo utile alla comprensione dell’aspetto pratico, ma ha un ruolo a sé stante e multidisciplinare: si ripercorre la storia dell’evoluzione della probabilità dalle origini alle moderne interpretazioni. L’analisi del concetto di equità nel SuperEnalotto e nella Roulette caratterizza la dimensione pratica dell’attività. L’apprendimento concettuale non ha un ruolo centrale: l’obiettivo del progetto è fornire agli studenti strumenti per imparare a ragionare, riflettere, mettere in discussione, argomentare e controbattere.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
La presente tesi tratta lo studio di fattibilità di un impianto automatico per l’assemblaggio di stampati in materiale plastico. Lo sviluppo della tesi si è basato sulla riproduzione a computer (utilizzando il software AutoMod) del layout futuro, delle movimentazioni di materiale e dell’analisi dei flussi che servono all’impianto e l’utilizzo del personale a bordo dello stesso. Successivamente, sviluppato il modello, si è andati a calcolare quale potesse essere il lotto ottimale di produzione che fosse in grado di individuare una produzione efficiente. Infine, è stata fatta l’analisi dell’investimento tramite foglio di calcolo Excel riportando i dati uscenti dal modello di simulazione insieme ad altri dati stimati e rilevati sul campo. Il programma ha come obiettivo l’analisi di fattibilità e la successiva decisione estratta dai dati sulla vantaggiosità o meno dell’investimento ed in quanto tempo l’azienda potrà rientrare economicamente.
Resumo:
I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.
Resumo:
Angiodroid The CO2 Injector è un dispositivo medico che permette il dosaggio di CO2 nelle cavità vascolari a volumi e pressioni controllate. La CO2 agisce come mezzo di contrasto durante gli esami angiografici, offrendo notevoli vantaggi e bassissimo tasso di complicazioni rispetto ai mezzi di contrasto iodati. L’oggetto di questa tesi è lo studio di due Essential Performance Requirements (EPR) di Angiodroid, definiti come le prestazioni di una funzione clinica diversa da quella relativa alla sicurezza di base, in cui la perdita o la degradazione oltre i limiti specificati dal produttore comporta un rischio inaccettabile. Gli EPR presi in considerazione sono il volume e la pressione di iniezione di CO2, in quanto l’erogazione affidabile e ripetibile del gas permette sia di garantire la sicurezza del paziente sia di standardizzare i protocolli di iniezione per i diversi distretti vascolari. Sovradosaggio e sovrapressione della somministrazione della dose di CO2 possono comportare potenziali rischi clinici per il paziente, mentre sottodosaggio e una sottopressione non sono legati a rischi clinici, piuttosto comportano una scarsa qualità dell’immagine radiologica. Lo scopo della tesi è quello di validare gli intervalli di precisione del volume e della pressione di iniezione in diversi scenari entro i quali il dispositivo è considerato conforme e sicuro. I test di validazione sono stati eseguiti su 5 iniettori al termine della loro life cycle (8 anni) attraverso un invecchiamento accelerato. I valori di volume e la pressione di iniezione sono stati esaminati sia in aria, cioè senza carico, sia su un modello di paziente simulato, quindi con carico, utilizzando introduttori e cateteri angiografici autorizzati dalla Food and Drug Administration. Tutte le analisi sono state effettuate simulando gli scenari di funzionamento dell'iniettore più critici.
Resumo:
L'obiettivo di questo lavoro di tesi è, quindi, quello di studiare delle soluzioni all'avanguardia ed effettuare la progettazione di un nuovo modulo innovativo di una web app attualmente in uso sul sito #Cesenadavivere di Casa Bufalini. Quest'ultima dovrà essere in grado di introdurre la navigazione di percorsi in modalità gaming, cioè tramite funzioni di riconoscimento automatico di punti di interesse come monumenti, edifici o stanze, a partire da immagini di elementi che li caratterizzano. Il progetto prevede anche di analizzare lo stato dell'arte dello sviluppo della web app e definirne al meglio l'evoluzione. Per renderlo possibile è necessario uno studio approfondito dello stato dell'arte di User Experience e Gamification. Queste due materie vengono sempre più utilizzate nella progettazione di applicazioni e tecnologie di contesti non di gioco, con il fine di aumentare il coinvolgimento degli utenti e migliorando la qualità del prodotto finale. Infatti, queste tecniche sono tutt'altro che utilizzate per il solo scopo di gioco, ma hanno il compito di rendere più fruibili e coinvolgenti le partecipazioni o utilizzi delle persone. L'obiettivo finale è quello di realizzare e proporre la realizzazione di un prototipo dell'interfaccia grafica che successivamente verrà valutata con un coinvolgimento di utenti target. Il risultato atteso sarà ottenere la migliore interfaccia grafica per soddisfare le necessità date dalla scelta delle possibili tecnologie da utilizzare. Queste necessità verranno prima ipotizzate dallo studio dello stato dell'arte delle materie e della piattaforma e poi verranno successivamente convalidate tramite dei test, i quali verranno effettuati cercando di coinvolgere un numero che vada da minimo cinque a dieci persone.
Resumo:
La classificazione di dati geometrici 3D come point cloud è un tema emergente nell'ambito della visione artificiale in quanto trova applicazione in molteplici contesti di guida autonoma, robotica e realtà aumentata. Sebbene nel mercato siano presenti una grande quantità di sensori in grado di ottenere scansioni reali, la loro annotazione costituisce un collo di bottiglia per la generazione di dataset. Per sopperire al problema si ricorre spesso alla domain adaptation sfruttando dati sintetici annotati. Questo elaborato si pone come obiettivo l'analisi e l'implementazione di metodi di domain adaptation per classificazione di point cloud mediante pseudo-labels. In particolare, sono stati condotti esperimenti all'interno del framework RefRec valutando la possibilità di sostituire nuove architetture di deep learning al modello preesistente. Tra queste, Transformer con mascheramento dell'input ha raggiunto risultati superiori allo stato dell'arte nell'adattamento da dati sintetici a reali (ModelNet->ScanNet) esaminato in questa tesi.
Resumo:
L’ambito videoludico è in forte espansione, andando a coinvolgere diversi settori ed ambiti. Infatti, i videogiochi possono avere scopi diversi e più articolati oltre al semplice intrattenimento e questo è proprio l'obiettivo dei Serious Game. Questi hanno come scopo quello di insegnare qualcosa tramite il gameplay stesso e vengono quindi utilizzati nel contesto educativo e dell'apprendimento. In questo contesto, il volume di tesi presenta il design e l'implementazione di un prototipo di serious game sviluppato per uno scopo ben definito: supporto e potenziamento dell’attenzione visuospaziale, facendo concentrare per l’appunto l’attenzione del giocatore sulle sue azioni, combinando facoltà visive, riflessi e anche memoria. Il gioco è pensato per essere adatto a tutti i giocatori, ma è stato sviluppato con un'attenzione particolare agli studenti che soffrono di Disturbi Specifici dell’Apprendimento (DSA). Il progetto è stato infatti sviluppato con Develop-Player, una Spin-off dell’Università di Bologna in cui psicologi, neuropsicologi e logopedisti hanno individuato nuovi metodi per potenziare i meccanismi più profondi dell’apprendimento e collaborano con informatici esperti nelle tecnologie più avanzate per l’implementazione di nuove esperienze interattive.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.