1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attuale panorama motoristico, fortemente guidato dalle normative, prevede l’implementazione di diverse tecnologie che hanno lo scopo di migliorare l’efficienza del motore e ridurre le emissioni di inquinanti e per le quali risulta necessario una corretta progettazione dei condotti di aspirazione. Lo sviluppo ottimale dei condotti risulta un compromesso tra obiettivi contrastanti e in termini matematici si tratta di un’ottimizzazione multiobiettivo. Le simulazioni CFD e gli algoritmi genetici sono stati applicati con successo allo studio di questi problemi, ma la combinazione di questi elementi risulta notevolmente dispendiosa in termini di tempo, in quanto sarebbero necessarie un alto numero di simulazioni. Per ridurre i tempi di calcolo, un set di simulazioni CFD pu`o essere pi`u convenientemente utilizzato per istruire una rete neurale, che una volta opportunamente istruita pu`o essere usata per prevedere gli output delle simulazioni in funzione dei parametri di progetto durante l’ottimizzazione con l’algoritmo genetico, operando quella che viene chiamata una ottimizzazione virtuale. In questa tesi, viene mostrata una metodologia numerica per l’ottimizzazione multi-obiettivo dei condotti di aspirazione, basata su un modello CAD a geometria variabile, le simulazioni fluidodinamiche tridimensionali e una rete neurale combinata con un algoritmo genetico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo di diete a base di microalghe per l'allevamento di novellame di molluschi bivalvi sta ottenendo sempre maggiore interesse data la crescente domanda di mercato nel settore dell'acquacoltura. Le dimensioni cellulari, la composizione biochimica e la digeribilità della parete cellulare delle microalghe sono fattori fondamentali per la loro applicabilità nell'alimentazione dei bivalvi; anche il contenuto di acidi grassi essenziali quali EPA e DHA ha un ruolo rilevante poiché influenza il tasso di crescita e di sviluppo degli animali. Nel presente studio sono stati utilizzati due ceppi autoctoni della Sacca di Goro del genere Thalassiosira, Pheaodactylum tricornutum, l'alga verde Tetraselmis chui e l'aptofita T-Iso, quest’ultima ampiamente utilizzata nell'alimentazione di diverse specie di molluschi bivalvi. Gli esperimenti condotti hanno permesso di (1) caratterizzare la crescita e la composizione biochimica delle 5 specie microalgali e (2) di analizzare l'applicabilità delle stesse tramite prove di alimentazione su larve e novellame di Ruditapes philippinarum, al fine di ottimizzarne la produzione. I risultati migliori, per numero di sopravvissuti e taglia raggiunta, sono stati ottenuti con larve alimentate con dieta plurispecifica a base di T-Iso e Thalassiosira ceppo A in rapporto 2:1; Thalassiosira ceppo A e P. tricornutum, in diete monospecifiche, sono state identificate come le più appetibili e assimilabili dal novellame, il quale mostra buoni valori del tasso massimo di clearance (2,17±0,25 e 2,27±0,15 L h-1, rispettivamente) e di efficienza di assorbimento del cibo (67 e 46%). Si è trattato di uno studio preliminare volto a verificare eventuali miglioramenti legati all’utilizzo di diete diversificate rispetto a quelle standardizzate di solito impiego; la ricerca di nuove specie algali e ulteriori analisi sulle attuali specie disponibili e sulla loro applicabilità potranno essere utili alla crescita sostenibile del settore dell’acquacoltura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il termine "crowdsensing" si intende una tecnica in cui un folto gruppo di individui aventi dispositivi mobili acquisiscono e condividono dati di natura diversa in maniera collettiva, al fine di estrarre informazioni utili. Il concetto di Mobile Crowdsensing è molto recente e derivante dalle ultime innovazioni tecnologiche in materia di connettività online e cattura di dati di vario genere; pertanto non si trova attualmente una vera e propria applicazione in campo reale, la modellazione solo teorica e fin troppo specifica pone un limite alla conoscenza di un ambito che può rivelarsi molto utile ai fini di ricerca. YouCrowd è un piattaforma web che va ad implementare un sistema di crowdsourcing completo, in grado di leggere dati dai numerosi sensori di uno smartphone e condividerli, al fine di ottenere una remunerazione per gli utenti che completano una campagna. La web application vede la sua implementazione di base supportata da NodeJS e si configura come una piattaforma dinamica che varia la propria interfaccia con l'utente in base alle richieste di dati da parte degli administrators. Il test di YouCrowd ha coinvolto un buon numero di partecipanti più o meno esperti nell'utilizzo degli strumenti informatici, rivelando delle buone prestazioni in relazione alla difficoltà del task e alle prestazioni del device in test.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro prende in analisi le aspettative messianiche e di redenzione ebraiche nel periodo delle crociate, ossia tra l’XI e il XIII secolo. Fu, questa, un’epoca di importanti persecuzioni nei confronti delle comunità ebraiche – stanziate soprattutto in Germania –, sottoposte ad attacchi e a conversioni forzate da parte dei crociati diretti a Gerusalemme. In quel periodo venne copiato e rielaborato un gran numero di testi di carattere apocalittico-escatologico, il cui scopo, secondo la mia ricostruzione, era quello di infondere speranza negli ebrei oppressi e di consolarli in merito all’imminente liberazione dal giogo straniero che l’era messianica avrebbe comportato. Nella prima parte del lavoro ricostruisco il quadro storico in cui tali testi circolavano, mentre nella seconda propongo un’edizione e una traduzione italiana degli scritti più rilevanti per la discussione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi che qui si presenta muove dall’osservazione della collezione dei Frammenti conservata presso l’Archivio di Stato di Modena, fornendo un'analisi dettagliata della sua storia archivistica fin dalle origini e dei percorsi di ricerca esplorati fino ad oggi. Un censimento condotto durante la ricerca ha inoltre rivelato circa 50 nuovi frammenti latini riutilizzati nei registri dell'Archivio Estense, che permangono in situ. Un notevole numero di frammenti dell'ASMo proviene dalle legature dei volumi del complesso archivistico estense, il quale, coprendo il periodo 1317-1797, costituisce il più ampio fondo dell'Archivio di Stato di Modena. Diversamente dalle ricerche precedenti dedicate a frammenti specifici, questa tesi adotta uno sguardo olistico, esplorando le testimonianze frammentarie legate a un medesimo contesto di riutilizzo. Il nucleo centrale si concentra sulla metodologia adoperata per ricostruire le 'provenienze archeologiche', con un focus sul riutilizzo nei registri dell'Archivio Estense. La tesi include frammenti documentari, spesso trascurati, offrendo nuove prospettive sullo studio del fenomeno del riuso, soprattutto nei domini estensi. Questo approccio sottolinea inoltre l’interdisciplinarietà intrinseca agli studi dedicati ai frammenti di manoscritti, già considerati prevalentemente secondo un’ottica paleografica e codicologica e qui sottoposti anche a un’indagine dal punto di vista dell’archivistica e della diplomatica. La tesi comprende un catalogo parziale dei frammenti pergamenacei latini provenienti dall'Archivio Estense, costruito adottando il modello di scheda descrittiva del database digitale Fragmentarium. L'analisi comprende identificazione, datazione, localizzazione dei frammenti, cui si aggiungono aspetti materiali e storico-contestuali del riuso, e il catalogo riferisce, in alcuni casi, la ricostruzione di membra disiecta. Parallelamente, si è avviato un progetto pilota per la digitalizzazione dei frammenti dell'ASMo in collaborazione con il Centro Studi ARCE dell'Università di Bologna. La tesi include una relazione sulle attività svolte, con riflessioni sulle metodologie adottate durante il progetto di digitalizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa di delineare una panoramica sul sistema dell'industria dei media e in particolare delle tendenze contemporanee produttive e di marketing volte ad attirare il maggior numero di consumatori. Si prende in esame il prodotto cinematografico dal punto di vista economico e di marketing delineandone i diversi processi: dal marketing mix alle tecniche di segmentazione, targeting e posizionamento fino alle diverse componenti del prodotto stesso che influenzano le scelte dei fruitori. Quest'ultimi esprimono esigenze diverse ed è per questo che è importante che si conosca la domanda a cui rivolgersi e saper comunicare nel modo più adeguato possibile. Nella contemporaneità lo spettatore è sempre più attivo e coinvolto poiché con la sovrabbondanza di offerta si cerca di produrre contenuti più complessi, serializzati e high concept proprio con l'obiettivo di attrarre. Nell'era della convergenza, come definita da Henry Jenkins, si parla di prosumer, ovvero di soggetti che partecipano attivamente al consumo dei prodotti producendo a loro volta contenuti. A queste dinamiche, il marketing contemporaneo risponde a sua volta con forme esperienziali e a forme virali che possano attirare l'attenzione. Analizzo a tal proposito la campagna marketing della serie tv Mr. Robot in quanto si inserisce all'interno della complessità produttiva e della transmedialità e il caso cinematografico della campagna di No Time to Die, l'ultimo film del franchise di 007, in era pandemica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questo studio è quello di valutare la stabilità foto-ossidativa di oli vegetali esposti a luce ultravioletta di bassa intensità per tempi brevi (da 5 min a 8 ore); lo scopo è quello di monitorare le prime fasi di ossidazione. Per la realizzazione di questo studio, è stato messo a punto un sistema di foto-ossidazione al fine di poter adottare condizioni di analisi le più ripetibili possibili e al fine di poter escludere il possibile effetto della temperatura. I campioni di olio analizzati nel presente lavoro di ricerca, tre oli raffinati e un olio extravergine di oliva, sono stati posti in provette di vetro trasparente da 20 ml, caricati poi all’interno della camera di ossidazione in gruppi di quattro e lasciati sotto l’effetto della luce ultravioletta per diversi tempi ovvero 0, 5, 10, 20, 30, 60, 240 e 480 minuti. Sono stati presi in considerazione i seguenti parametri qualitativi di analisi per valutare lo stato ossidativo dei nostri campioni, e cioè il numero di perossido, la concentrazione di esanale e il valore di p-anisidina. Dai risultati ottenuti è stato possibile osservare che complessivamente, a livelli di insaturazione e di presenza di antiossidanti naturali differenti, l’impatto dell’esposizione alla luce è stato piuttosto simile. I tre oli raffinati hanno mostrato valori ossidativi più contenuti, mentre per l’olio EVO sono state rilevate concentrazioni più alte sia per i perossidi che per l’esanale. Questo è dovuto alla presenza di alcuni composti ad azione pro-ossidante e composti aromatici che permangono nel prodotto in quanto questo olio non subisce il processo di raffinazione. La p-anisidina per tutte e quattro gli oli testati è rimasta piuttosto costante e lineare nel tempo senza subire considerevoli variazioni. Questo sottolinea il fatto che le condizioni di stress foto-ossidativo impiegate non sono state sufficienti a determinare un aumento significativo dei prodotti di ossidazione secondaria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per funzioni di matrice intendiamo generalizzazioni di funzioni scalari che permettono di valutare tali funzioni anche per matrici. Esistono numerosi esempi notevoli di funzioni di matrice: tra queste la funzione esponenziale, la radice quadrata e il segno. Quest'ultima è particolarmente utile per la risoluzione di particolari equazioni matriciali come ad esempio le equazioni di Sylvester e le equazioni di Riccati. In questo elaborato introdurremo il concetto di funzione di matrice per poi soffermarci proprio sulla funzione segno. Oltre che a fornire tutte le definizioni necessarie e analizzare le proprietà che ci aiuteranno a comprendere meglio questa funzione, ci interesseremo all'implementazione di algoritmi che possano calcolare o approssimare la funzione segno di matrice. Un primo metodo sfrutterà la decomposizione di Schur: supponendo di conoscere la decomposizione della matrice, e di trovarci in algebra esatta, questo metodo non fornirà un'approssimazione del segno della suddetta matrice ma l'esatto segno della stessa. Il secondo metodo che studieremo si può definire più come una famiglia di metodi. Vedremo infatti tre algoritmi diversi che però sfruttano tutti l'iterazione di Newton, opportunamente adattata al caso matriciale: il metodo di base, convergente globalmente, in cui applicheremo semplicemente questa iterazione, ed altri due che mireranno a risolvere problemi distinti del metodo di base, ovvero il numero di iterazioni necessarie per giungere alla convergenza (introducendo il concetto di riscaling) e l'alto costo computazionale (sacrificando però la convergenza globale). Grazie all'aiuto di Matlab analizzeremo più nello specifico l'efficienza dei vari algoritmi descritti, ed infine vedremo più nello specifico come utilizzare la funzione segno di matrice per risolvere le equazioni algebriche di Sylvester e di Riccati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni la forte evoluzione tecnologica ha avuto un impatto significativo su un ampio numero di settori ed in particolar modo sull’industria manifatturiera, specie in quelle aziende che hanno saputo cogliere le opportunità di business che essa ha generato. La forte dinamicità dei requisiti con cui si sono trovati a fare i conti gli sviluppatori software, ha portato alla stesura, poco più di vent’anni fa’, dell’oramai noto "Manifesto per lo Sviluppo Agile di Software" all’interno del quale sono introdotti i principi cardini che in un secondo momento hanno contribuito alla formazione dell’approccio Agile. Questa occasione ha senza dubbio cambiato radicalmente l’ottica con cui era sempre stato visto, almeno fino a quel momento, il classico processo utilizzato per concepire e successivamente sviluppare il codice: costituito da una sequenza di fasi predefinite, dove l’insieme dei requisiti era definito nella sua interezza, prima della fase di effettiva implementazione. Il metodo di lavoro più "tradizionale" non rappresenta un approccio sbagliato o inefficace ma è una modalità che si prestava bene ad essere impiegata in scenari dove il concetto di business assumeva connotati diversi rispetto a quello degli ultimi anni, caratterizzati da un’elevata incertezza, repentini cambiamenti e alta probabilità di dover ridefinire i requisiti, al contrario i cambiamenti avvenivano con una scarsa frequenza e per questo risultavano facilmente gestibili. La presente attività di tesi si propone di analizzare i maggiori vantaggi e le principali criticità, che l’impiego di metodologie Agile devono affrontare all’interno di un contesto manifatturiero ed in particolare in un caso di studio reale: un’iniziativa progettuale per la realizzazione di distinte di servizio e istruzioni di montaggio e smontaggio elettroniche all’interno dell’organizzazione Bonfiglioli S.P.A., una multinazionale leader nella produzione e nella vendita di riduttori e motoriduttori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.