801 resultados para Game rule encoding
Resumo:
Tesi riguardante la creazione di tutte le risorse grafiche necessarie ad un videogioco tridimensionale in prima persona con Blender e Unity3D. Gli argomenti trattati sono: prgettazione, 3D modeling, texturing e shading.
Resumo:
La tesi riguarda tutto il processo di progettazione di un videogioco e l'implementazione dello stesso. Gli argomenti trattati sono: Unity, Design & Gameplay e l'implementazioni del progetto.
Resumo:
Questo documento contiene la descrizione di una applicazione iOS stile tamagotchi che sfrutta l'utilizzo dei sensori dell'iPhone quali accelerometro, GPS, prossimità e giroscopio nel suo utilizzo.
Resumo:
Obiettivo della tesi è quello di analizzare le diverse tecnologie messe a disposizioe dai dispositivi mobili, in particolare smartphon e tablet. Verranno analizzate le principali innovazioni portate da questi dispositivi nel campo dei videogiochi e verrà proposto un caso di sviluppo di Shooter game 2d multi piattaforma.
Resumo:
Lo scopo della seguente tesi è di presentare una proposta e analisi di sottotitolaggio dell’episodio Blackwater della seconda stagione della serie Game of Thrones. A spingermi a scegliere questo tema è stata la mia passione per la serie e la saga di libri da cui è stata adattata e il desiderio di redigerne i sottotitoli. È stata un’esperienza utile e stimolante perché mi ha dato la possibilità di mettere in pratica le nozioni teoriche acquisite durante questi anni di studio. Il mio lavoro si sviluppa in tre capitoli e un’appendice. Il primo capitolo è dedicato alla contestualizzazione dell’episodio. Nel secondo capitolo sono analizzati gli aspetti tecnici della traduzione multimediale e del sottotitolaggio. Il terzo capitolo contiene l’analisi delle principali difficoltà incontrate nel processo traduttivo, mentre l’appendice contiene la tabella dei sottotitoli sia in inglese sia in italiano.
Resumo:
Through the analysis of American TV show Game of Thrones, this dissertation will focus on the linguistic issues concerning the adaptation from books to television, the power of language over the audience, and the creation of two languages, with all the linguistic and cultural implications related to this phenomenon.
Resumo:
L'obiettivo di questo documento di tesi è descrivere il design e lo sviluppo di uno strumento per la raccolta delle segnalazioni di barriere architettoniche che possa coinvolgere il maggior numero possibile di utenti attraverso un serious game, implementando meccaniche di gioco che incitino il suo utilizzo, e che al tempo stesso sia divertente, anche grazie a contenuti tematici quali gli zombie, il tutto attraverso una interfaccia semplice e funzionale. Le segnalazioni sono disponibili pubblicamente attraverso Fusion Tables dove esse sono memorizzate, permettendo inoltre di avere una visione globale delle criticità grazie alla visualizzazione su Google Maps.
Resumo:
L'obiettivo di questa tesi è stato quello di progettare ed avviare lo sviluppo di un videogioco 3D multipiattaforma, nello specifico PC(Windows) e Mobile(Android), realizzandone poi una demo, affrontando così tutte le problematiche che possono sorgere quando si sviluppa un programma per dispositivi profondamente diversi fra loro. Il videogioco che si è scelto di realizzare è del genere “First Person Adventure”, in cui il giocatore deve esplorare la mappa di gioco, ed interagire con i vari elementi presenti al fine di far procedere la storia, il tutto realizzato ad un livello qualitativo sufficiente a permetterne la commercializzazione una volta ultimato.
Resumo:
In questo elaborato viene descritto il lavoro svolto per sviluppare un generatore procedurale di ambienti per videogiochi, più propriamente definiti con il temine dungeon. Lo strumento creato viene integrato all'interno del game engine Unity ed è di carattere generale: può essere utilizzato per qualunque gioco che richieda una generazione procedurale di livelli.
Resumo:
Lo scopo di questa tesi è realizzare un serious game fruibile attraverso dispositivi mobili, con l’obiettivo di veicolare i concetti relativi alla raccolta differenziata ai bambini, in età scolare e pre-scolare. La modalità di gioco implementata prevede una partecipazione in coppia. I due giocatori, posti uno di fronte all'altro, devono guidare a turno MecWillly, un robot umanoide che si muove all'interno di una griglia solo in determinate direzioni, al bidone giusto, a seconda del rifiuto che viene loro mostrato. Un'altra finalità del gioco, quindi, è quella di imparare a collaborare per raggiungere un obiettivo comune, ma anche di capire come cambia la rappresentazione degli oggetti nello spazio, a seconda del punto di vista di un giocatore rispetto all'altro.
Resumo:
Learning by reinforcement is important in shaping animal behavior, and in particular in behavioral decision making. Such decision making is likely to involve the integration of many synaptic events in space and time. However, using a single reinforcement signal to modulate synaptic plasticity, as suggested in classical reinforcement learning algorithms, a twofold problem arises. Different synapses will have contributed differently to the behavioral decision, and even for one and the same synapse, releases at different times may have had different effects. Here we present a plasticity rule which solves this spatio-temporal credit assignment problem in a population of spiking neurons. The learning rule is spike-time dependent and maximizes the expected reward by following its stochastic gradient. Synaptic plasticity is modulated not only by the reward, but also by a population feedback signal. While this additional signal solves the spatial component of the problem, the temporal one is solved by means of synaptic eligibility traces. In contrast to temporal difference (TD) based approaches to reinforcement learning, our rule is explicit with regard to the assumed biophysical mechanisms. Neurotransmitter concentrations determine plasticity and learning occurs fully online. Further, it works even if the task to be learned is non-Markovian, i.e. when reinforcement is not determined by the current state of the system but may also depend on past events. The performance of the model is assessed by studying three non-Markovian tasks. In the first task, the reward is delayed beyond the last action with non-related stimuli and actions appearing in between. The second task involves an action sequence which is itself extended in time and reward is only delivered at the last action, as it is the case in any type of board-game. The third task is the inspection game that has been studied in neuroeconomics, where an inspector tries to prevent a worker from shirking. Applying our algorithm to this game yields a learning behavior which is consistent with behavioral data from humans and monkeys, revealing themselves properties of a mixed Nash equilibrium. The examples show that our neuronal implementation of reward based learning copes with delayed and stochastic reward delivery, and also with the learning of mixed strategies in two-opponent games.
Resumo:
Learning by reinforcement is important in shaping animal behavior. But behavioral decision making is likely to involve the integration of many synaptic events in space and time. So in using a single reinforcement signal to modulate synaptic plasticity a twofold problem arises. Different synapses will have contributed differently to the behavioral decision and, even for one and the same synapse, releases at different times may have had different effects. Here we present a plasticity rule which solves this spatio-temporal credit assignment problem in a population of spiking neurons. The learning rule is spike time dependent and maximizes the expected reward by following its stochastic gradient. Synaptic plasticity is modulated not only by the reward but by a population feedback signal as well. While this additional signal solves the spatial component of the problem, the temporal one is solved by means of synaptic eligibility traces. In contrast to temporal difference based approaches to reinforcement learning, our rule is explicit with regard to the assumed biophysical mechanisms. Neurotransmitter concentrations determine plasticity and learning occurs fully online. Further, it works even if the task to be learned is non-Markovian, i.e. when reinforcement is not determined by the current state of the system but may also depend on past events. The performance of the model is assessed by studying three non-Markovian tasks. In the first task the reward is delayed beyond the last action with non-related stimuli and actions appearing in between. The second one involves an action sequence which is itself extended in time and reward is only delivered at the last action, as is the case in any type of board-game. The third is the inspection game that has been studied in neuroeconomics. It only has a mixed Nash equilibrium and exemplifies that the model also copes with stochastic reward delivery and the learning of mixed strategies.
Resumo:
The prognosis of patients in whom pulmonary embolism (PE) is suspected but ruled out is poorly understood. We evaluated whether the initial assessment of clinical probability of PE could help to predict the prognosis for these patients.