697 resultados para Traduzione automatica,traduzione umana,ambito letterario,analisi,post-editing
Resumo:
Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.
Resumo:
Questo elaborato presenta e discute le osservazioni svolte durante il rilevamento geologico dell’area di Passo Rolle, compilate in una carta geologica corredata di due sezioni geologiche, e alcune ricostruzioni del paleosforzo elaborate a partire dall’evidenza mesostrutturale della deformazione fragile che caratterizza l’area. Queste analisi consentono una migliore comprensione della sequenza litostratigrafica permo-triassica delle Dolomiti e forniscono informazioni sull’evoluzione strutturale della zona. La stratigrafia affiorante rappresenta un intervallo temporale che si estende dal Permiano, con il Piastrone Porfirico Atesino, le Arenarie di Val Gardena e la Formazione a Bellerophon, fino al tetto del Triassico inferiore, con la Formazione di Werfen. La sequenza è tagliata da un fascio di faglie normali subverticali orientate NNW-SSE che ribassano le unità triassiche ad est rispetto alle unità permiane ad ovest. Queste strutture appartengono alla Linea di Passo Rolle, una faglia plurichilometrica orientata N-S, tagliata dal Sovrascorrimento neogenico della Valsugana. La faglia di Passo Rolle si localizzò inizialmente nel Permiano ed è stata successivamente riattivata nel Mesozoico e nel Cenozoico. Dalla carta e dalle sezioni geologiche prodotte risulta evidente tale riattivazione. Sulla base di analisi mesostrutturali sono state identificate due fasi deformative che hanno coinvolto l’area: entrambi transpressive con direzione di raccorciamento principale NNW-SSE e WNW-ESE. Il software Wintensor ha permesso una ricostruzione quantitativa dei regimi dei paleosforzi, sia in termini di tensore di stress ridotto che di magnitudo relativa. Conoscendo la deformazione post-collisionale neoalpina che ha caratterizzato il settore orientale delle Alpi Meridionali e sulla base delle osservazioni durante il rilevamento geologico, è stato possibile collegare le evidenze misurate con le fasi deformative Valsuganese (Miocene) e Schio-Vicenza (Messiniano-Pliocene).
Resumo:
L’idea alla base di questo elaborato finale nasce principalmente dall’interesse verso lo stato dell’arte attuale per quanto riguarda l’utilizzo di materiali compositi in ambito aerospaziale. La grande potenzialità di questi materiali è oggigiorno ancora contrastata da forti limitazioni, come il costo elevato oppure il comportamento particolare della struttura interna. Quest’ultimo aspetto rappresenta, a livello macroscopico, la problematica cardine del presente studio: il comportamento meccanico di questi materiali a seguito di un impatto, con un focus particolare sugli effetti, all’apparenza trascurabili, di impatti a bassa energia. Si è scelto in particolare di analizzare gli sviluppi raggiunti dalla ricerca nei giunti incollati a giro singolo, una tipologia di giunzione caratterizzata da due componenti aderenti ed una sostanza adesiva a costituire la giunzione stessa. Il materiale composito più utilizzato per questo tipo di strutture è il Carbon Fiber Reinforced Polymer o CFRP. Il fulcro di questa tesi è sostanzialmente un’analisi di una serie di studi recenti sugli effetti di impatti in un giunto incollato in composito, valutato sia in maniera statica che ciclica; vengono inoltre descritti gli effetti di fattori ambientali come la temperatura e l’umidità, e riportate proposte presenti e future degli autori, come la ricerca di configurazioni alternative per il giunto oppure una serie di modifiche alle superfici, al fine di migliorare le prestazioni di questi componenti con soluzioni ottimizzate ed efficaci. In conclusione, si sintetizzano i risultati raggiunti da questi studi sperimentali, con l’intenzione di evidenziarne il progresso piuttosto che le limitazioni comparse e di contribuire alla transizione completa verso l’utilizzo dei materiali compositi, che acquisiranno sempre maggiore importanza nell’ingegneria dei materiali.
Resumo:
Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di valutare l’effetto della modalità di raffreddamento delle carcasse (lenta o veloce) e della presenza dell’anomalia SM sull’acidificazione muscolare post-mortem. Inoltre, è stato valutato l’effetto del genere, del peso alla macellazione e della categoria di allevamento degli animali sull’incidenza dell’anomalia SM. Dai rilievi effettuati su un totale di 74.000 muscoli P. major è emersa un’incidenza totale pari al 5,4%, superiore del 90% negli individui femmine rispetto ai maschi. La categoria di peso degli animali ha esercitato un effetto significativo sull’incidenza dell’anomalia, che è risultata superiore negli individui più pesanti, mentre la categoria di allevamento non è risultata influente, a prescindere dal genere degli animali. Dalle analisi effettuate su 52 carcasse, non è emersa alcuna interazione significativa tra la modalità di raffreddamento e l’incidenza dell’anomalia SM. I valori di pH muscolare durante la fase di pre-rigore non sono risultati significativamente differenti in funzione della modalità di raffreddamento, ad eccezione del pH a 120 minuti post-mortem, mentre è emerso come i petti miopatici mostrino pH significativamente inferiori rispetto alla controparte normale fino a 3 h post-mortem, per poi presentare valori superiori al termine della prova (24 h), presumibilmente a causa del loro ridotto potenziale glicolitico. I risultati ottenuti rappresentano un punto di partenza per futuri studi finalizzati alla comprensione dell’effetto dei fattori di macellazione sull’insorgenza e/o sul peggioramento dell’anomalia, così come delle cause che rendono l’incidenza dell’anomalia maggiore negli individui di sesso femminile.
(In)Visibili. Difficoltà, scelte e implicazioni nella mediazione nazionale dei personaggi non-binary
Resumo:
Con il progressivo aumentare del numero di personaggi non-binary nelle serie televisive in lingua inglese, dal punto di vista della mediazione nazionale italiana si va a delineare un interessante campo di studio, determinato dallo scontro fra la predilezione, da parte di questi personaggi, di pronomi ed espressioni neutre e la struttura grammaticale italiana, basata, invece, sull’esclusiva contrapposizione fra maschile e femminile. Il presente elaborato, allora, si pone l’obiettivo di individuare, attraverso una selezione di casi di studio, le difficoltà che sorgono automaticamente nel momento della realizzazione dell’edizione italiana di queste serie, le strategie adottate ai fini di rendere neutro il linguaggio italiano e le loro implicazioni nei confronti dei personaggi non-binary. Il metodo di studio consiste nel confronto fra la versione originale e l’edizione italiana (comprensiva di doppiaggio e sottotitoli) delle battute relative ai personaggi non binari di riferimento, con conseguente analisi delle differenze e somiglianze rilevate. I tre casi presi in considerazione nel corso della trattazione (Sex Education, One Day at a Time e Grey’s Anatomy) permettono, in definitiva, di individuare come rischio primario l’invisibilità del non binarismo di genere agli occhi e alle orecchie degli spettatori italiani e, così, lo snaturamento dell’intento e del valore dell’edizione originale.
Resumo:
Background: I trattamenti volti al recupero della deambulazione nel paziente post stroke sono ampiamente declinati in letteratura, ma vi sono tanti interrogativi per quanto riguarda gli eventi avversi che possono intercorrere in neuroriabilitazione. Dato l’ampio spettro di opzioni terapeutiche in questo ambito, innanzitutto, è utile comprendere quali trattamenti si dimostrano nocivi nella riabilitazione di un paziente così complesso. Obiettivo: l’obiettivo di questa Scoping Review è quello di indagare la presenza di eventi avversi riportati in letteratura che possono insorgere nella riabilitazione volta al recupero del cammino nel paziente post stroke. Inoltre, si cerca di individuare quali strategie terapeutiche non siano applicabili e sicure nell’ambito della neuroriabilitazione. Metodi: la ricerca è avvenuta consultando più banche dati online come Pubmed, Cochrane Library, PEDro, il motore di ricerca Google Scholar; il tutto tramite ricerca manuale bibliografica. Sono stati poi analizzati gli articoli pertinenti rispetto al nostro quesito di partenza, prendendo in considerazione qualsiasi tipologia di studio e senza porre limiti di lingua. Risultati: sono stati individuati 53 articoli secondo i criteri di eleggibilità, di cui: 28 RCT, 8 Systematic Reviews, 7 studi pilota, 4 meta – analisi, 2 studi cross-sectional, 2 studi osservazionali prospettici, 1 studio preliminare e 1 studio post hoc di 2 RCT. Il processo di selezione degli articoli è stato riportato utilizzando un diagramma di flusso, mentre il loro contenuto è sintetizzato in tabella sinottica. Conclusione: L’analisi degli studi segue l’applicazione della stringa di ricerca. Dall’analisi attuale della letteratura non viene evidenziata l’insorgenza di eventi avversi gravi e trattamento-correlati, che fossero responsabili di un cambiamento nella pratica clinica. Sono stati rilevati invece, alcuni eventi avversi di grado lieve o moderato, non sempre direttamente correlabili al trattamento proposto.
Resumo:
La stenosi spinale lombare (LSS) è un processo degenerativo frequente nell’attuale popolazione anziana e può essere considerata come la causa principale di chirurgia spinale nei pazienti di età superiore ai sessantacinque anni. Comporta un restringimento del forame vertebrale, che, nei casi più gravi, causa una compressione del midollo spinale e degli elementi neurali e vascolari situati nel tratto lombo-sacrale. Uno dei trattamenti chirurgici di decompressione utilizzato è l’emilaminectomia, che, prevedendo la resezione della lamina di un solo lato della vertebra e di parte del legamento giallo, può portare a una riduzione della stabilità spinale. L’obiettivo di questo studio in vitro è quello di analizzare l’impatto dell’emilaminectomia sulla biomeccanica del rachide. Sei provini, estratti da rachide umano e costituiti da quattro vertebre lombari e una sacrale (L2-S1), sono stati testati meccanicamente in flessione, estensione e flessione laterale sinistra e destra in due condizioni di prova: intatti e post emilaminectomia. La stabilità spinale è stata valutata calcolando il Range of Motion tra le vertebre L2 e S1 agli estremi dei provini. Mediante l’algoritmo di Digital Image Correlation (DIC), sono state estratte e valutate le distribuzioni delle deformazioni dell’intero provino, valutando, in particolare, le deformazioni principali massime e minime sulla superficie del disco intervertebrale L4-L5. I risultati hanno mostrato che l’emilaminectomia ha causato una diminuzione significativa della stabilità spinale solo in flessione, con un aumento del Range of Motion del 54%. L’emilaminectomia non ha causato variazioni nelle distribuzioni delle deformazioni in ogni configurazione di carico. Le deformazioni principali minime sul disco intervertebrale L4-L5, tra le due vertebre in cui è stata eseguita l’emilaminectomia, sono aumentate, in modo statisticamente significativo, del 38% nella flessione nel lato in cui è stato svolto l’intervento di emilaminectomia.
Resumo:
Nel modo in cui oggigiorno viene intrapresa la ricerca, l’interdisciplinarità assume una posizione di sempre maggior rilievo in pressoché ogni ambito del sapere. Questo è particolarmente evidente nel campo delle discipline STEM (Scienza, Tecnologia, Ingegneria, Matematica), considerando che i problemi a cui esse fanno fronte (si pensi agli studi sul cambiamento climatico o agli avanzamenti nel campo dell’intelligenza artificiale) richiedono la collaborazione ed integrazione di discipline diverse. Anche nella ricerca educativa, l’interdisciplinarità ha acquisito negli ultimi anni una notevole rilevanza ed è stata oggetto di riflessioni teoriche e di valutazioni sulle pratiche didattiche. Nell’ampio contesto di questo dibattito, questa tesi si focalizza sull’analisi dell’interdisciplinarità tra fisica e matematica, ma ancora più nel dettaglio sul ruolo che la matematica ha nei modelli fisici. L’aspetto che si vuole sottolineare è l’esigenza di superare una concezione banale e semplicistica, sebbene diffusa, per la quale la matematica avrebbe una funzione strumentale rispetto alla fisica, a favore invece di una riflessione che metta in luce il ruolo strutturale della formalizzazione matematica per l’avanzamento della conoscenza in fisica. Per fare ciò, si prende in esame il caso di studio dell’oscillatore armonico attraverso due lenti diverse che mettono in luce altrettanti temi. La prima, quella dell’anchor equation, aiuterà a cogliere gli aspetti fondamentali del ruolo strutturale della matematica nella modellizzazione dell’oscillatore armonico. La seconda, quella degli epistemic games, verrà utilizzata per indagare materiale didattico, libri di testo e tutorial, per comprendere come diverse tipologie di risorse possano condurre gli studenti ad intendere in modi diversi la relazione di interdisciplinarità tra fisica e matematica in questo contesto.
Resumo:
In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.
Resumo:
La tesi in oggetto ha lo scopo di determinare l’effetto della sabbiatura sul comportamento a fatica della lega AlSi10Mg prodotta mediante Laser Powder Bed Fusion e trattata termicamente. I parametri di processo e di trattamento termico (T5 e T6) sono stati precedentemente ottimizzati. Al fine di determinare l’effetto della sabbiatura su topografia superficiale e microstruttura dei campioni, si sono condotte molteplici analisi avvalendosi di strumenti quali profilometria, microscopia ottica ed in scansione, analisi di tensioni residue con diffrazione a raggi X e prove di durezza. Attraverso prove di fatica per flessione rotante, eseguite secondo il metodo Stair-Case per la determinazione della resistenza a fatica, e successiva caratterizzazione delle superfici di frattura si vuole correlare il difetto killer, ossia quello responsabile del cedimento per fatica, alle caratteristiche morfologiche e microstrutturali. Il difetto killer viene caratterizzato in termini di dimensione e distanza dalla superficie e per mostrare la relazione fra la dimensione del difetto killer e la resistenza a fatica si adotta il diagramma di Kitagawa-Takahashi con modellazione di Murakami ed EL Haddad. Si è evidenziato che tutti i difetti killer sono riconducibili a lack-of-fusion con dimensione superiore ai 100 μm ad una profondità compresa fra i 150 e i 200 μm, indipendentemente dal trattamento termico o meccanico applicato. In termini di fatica si osserva che il trattamento T6 conferisce al materiale migliori proprietà rispetto a quello T5. Il processo di sabbiatura, confrontato con quello di lucidatura superficiale, ha portato a miglioramenti in termini di durezza e tensioni residue di compressione, ma si è rivelato quasi ininfluente sulla resistenza a fatica. Sulla base di quanto sopra, si conferma la possibilità di applicazione della sabbiatura in ambito industriale a componenti meccanici, anche in sostituzione della lucidatura, ottenendo un beneficio anche economico.
Resumo:
Una importante problematica di risonanza mondiale è lo sviluppo di fenomeni sempre più frequenti di siccità e di scarsità idrica. Il presente elaborato intende illustrare come tale difficoltà stia colpendo il pianeta, con un focus sull’Italia e poi sull’Emilia-Romagna. Le cause scatenanti sono riconducibili all’aumento della popolazione, al depauperamento dei corpi idrici, ma soprattutto agli impatti del cambiamento climatico: incremento delle temperature, calo delle precipitazioni e quindi riduzione della ricarica delle fonti di approvvigionamento. Queste devono soddisfare un’intensa domanda da parte delle attività antropiche nonostante il loro stato sia sempre più preoccupante. In questo scenario è indispensabile adottare nuovi metodi per la gestione sostenibile delle riserve idriche, e il monitoraggio si rivela uno strumento utile in quanto fornisce informazioni dettagliate e aggiornate sullo stato quantitativo delle fonti. In particolare, il presente elaborato si focalizza sul progetto Resilient Dashboard, ideato in ambito regionale dalla collaborazione di più strutture operative di Hera S.p.A. Si tratta di uno strumento per l’analisi e il preannuncio di crisi idriche, basato sul monitoraggio di indicatori idrologici e meteorologici. Questo può essere di supporto per i gestori delle risorse, i quali possono individuare e poi intervenire sulle zone in cui si verifica maggiore criticità. Vengono dunque esaminati i processi che sono risultati necessari alla definizione del progetto, a partire dalla selezione degli elementi di interesse e dalla predisposizione delle elaborazioni da compiere su ciascuna tipologia di dato, fino allo sviluppo del criterio di assegnazione dei colori alle fonti e alle aree, per la segnalazione degli allarmi. Il progetto è ancora in corso di realizzazione, ma il suo obiettivo finale consiste nel produrre una piattaforma digitale di facile utilizzo che fornisca informazioni sullo stato delle fonti, in relazione alla domanda di risorsa.
Resumo:
Una delle applicazioni maggiormente richieste in ambito industriale è quella della presa e movimentazioni di oggetti. Questa tipologia di operazione trova diverse soluzioni nel mondo della robotica e automazione. Nella loro forma più comune un dispositivo di presa si presenta come una pinza motorizzata attraverso la quale è possibile eseguire l’afferraggio di oggetti. Tra essi si possono distinguere i Soft Gripper, ovvero quella classe di pinze che ricorrono a componenti flessibili e parti in materiali soffici che nell’azione di presa si conformano all’oggetto per deformazione dei componenti. Un esempio di questa tipologia di strumenti di presa è il Fin Ray. Tuttavia, questa tipologia di soft-gripper possiede delle limitazioni, come il carico massimo movimentabile determinato sostanzialmente dalla rigidezza della struttura. In questo contesto, al fine di superare tale limite, viene proposto di implementare sulla superficie di contatto un dispositivo a film-sottile elettroadesivo, per generare forze di taglio superficiali per principio elettrostatico, che aumentino la capacità di sollevamento del soft-gripper senza intaccare la sua caratteristica principale di conformità. Lo scopo della tesi è proprio un’analisi numerica e sperimentale di un Fin Ray integrato con un dispositivo elettroadesivo, con lo scopo di analizzare la forza scambiata con un oggetto. Il gripper progettato in questo lavoro, è così prima simulato, e poi realizzato in laboratorio per eseguire la caratterizzazione sperimentale. Gli esperimenti sono stati condotti su un banco prova per la misurazione della forza di contatto scambiata durante l’afferraggio. Per ottenere una validazione del modello sviluppato, sono stati realizzati dei gripper con due differenti materiali altamente deformabili, e con una combinazione di parametri fondamentali diversi, come la posizione e la dimensione dell’oggetto in presa, ottenendo infine una caratterizzazione completa del gripper sviluppato.
Resumo:
La Stereo Vision è un popolare argomento di ricerca nel campo della Visione Artificiale; esso consiste nell’usare due immagini di una stessa scena,prodotte da due fotocamere diverse, per estrarre informazioni in 3D. L’idea di base della Stereo Vision è la simulazione della visione binoculare umana:le due fotocamere sono disposte in orizzontale per fungere da “occhi” che guardano la scena in 3D. Confrontando le due immagini ottenute, si possono ottenere informazioni riguardo alle posizioni degli oggetti della scena.In questa relazione presenteremo un algoritmo di Stereo Vision: si tratta di un algoritmo parallelo che ha come obiettivo di tracciare le linee di livello di un area geografica. L’algoritmo in origine era stato implementato per la Connection Machine CM-2, un supercomputer sviluppato negli anni 80, ed era espresso in *Lisp, un linguaggio derivato dal Lisp e ideato per la macchina stessa. Questa relazione tratta anche la traduzione e l’implementazione dell’algoritmo in CUDA, ovvero un’architettura hardware per l’elaborazione pa- rallela sviluppata da NVIDIA, che consente di eseguire codice parallelo su GPU. Si darà inoltre uno sguardo alle difficoltà che sono state riscontrate nella traduzione da *Lisp a CUDA.
Resumo:
L'intelligenza artificiale (IA) trova nei giochi un campo di applicazione molto vasto, nel quale poter sperimentare svariate tecniche e proporre nuove stimolanti sfide che spingano i partecipanti ad esplorare nuovi orizzonti nell'ambito delle applicazioni di IA. La Keke AI Competition rappresenta una di queste sfide, introducendo una gara tra agenti intelligenti per il gioco Baba is You, puzzle game in cui i giocatori possono creare regole che influenzano le meccaniche del gioco in maniera temporanea o permanente. La natura di queste regole dinamiche crea una sfida per l'intelligenza artificiale, che deve adattarsi ad una varietà di combinazioni di meccaniche per risolvere un livello. Questo progetto di tesi si propone di realizzare un agente intelligente che possa idealmente partecipare alla competizione sfruttando tecniche di pianificazione automatica. In particolare, l'agente progettato si basa sull'algoritmo di pianificazione graphplan che opera a diversi livelli di astrazione posti in gerarchia tra loro ed è stato realizzato completamente in Prolog. Questo progetto mostra quindi come le tecniche di pianificazione automatica siano un valido strumento per risolvere alcune tipologie di giochi innovativi complessi nell'ambito dell'IA.