1000 resultados para Traduzione automatica,traduzione umana,ambito letterario,analisi,post-editing


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La stenosi spinale lombare (LSS) è un processo degenerativo frequente nell’attuale popolazione anziana e può essere considerata come la causa principale di chirurgia spinale nei pazienti di età superiore ai sessantacinque anni. Comporta un restringimento del forame vertebrale, che, nei casi più gravi, causa una compressione del midollo spinale e degli elementi neurali e vascolari situati nel tratto lombo-sacrale. Uno dei trattamenti chirurgici di decompressione utilizzato è l’emilaminectomia, che, prevedendo la resezione della lamina di un solo lato della vertebra e di parte del legamento giallo, può portare a una riduzione della stabilità spinale. L’obiettivo di questo studio in vitro è quello di analizzare l’impatto dell’emilaminectomia sulla biomeccanica del rachide. Sei provini, estratti da rachide umano e costituiti da quattro vertebre lombari e una sacrale (L2-S1), sono stati testati meccanicamente in flessione, estensione e flessione laterale sinistra e destra in due condizioni di prova: intatti e post emilaminectomia. La stabilità spinale è stata valutata calcolando il Range of Motion tra le vertebre L2 e S1 agli estremi dei provini. Mediante l’algoritmo di Digital Image Correlation (DIC), sono state estratte e valutate le distribuzioni delle deformazioni dell’intero provino, valutando, in particolare, le deformazioni principali massime e minime sulla superficie del disco intervertebrale L4-L5. I risultati hanno mostrato che l’emilaminectomia ha causato una diminuzione significativa della stabilità spinale solo in flessione, con un aumento del Range of Motion del 54%. L’emilaminectomia non ha causato variazioni nelle distribuzioni delle deformazioni in ogni configurazione di carico. Le deformazioni principali minime sul disco intervertebrale L4-L5, tra le due vertebre in cui è stata eseguita l’emilaminectomia, sono aumentate, in modo statisticamente significativo, del 38% nella flessione nel lato in cui è stato svolto l’intervento di emilaminectomia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel modo in cui oggigiorno viene intrapresa la ricerca, l’interdisciplinarità assume una posizione di sempre maggior rilievo in pressoché ogni ambito del sapere. Questo è particolarmente evidente nel campo delle discipline STEM (Scienza, Tecnologia, Ingegneria, Matematica), considerando che i problemi a cui esse fanno fronte (si pensi agli studi sul cambiamento climatico o agli avanzamenti nel campo dell’intelligenza artificiale) richiedono la collaborazione ed integrazione di discipline diverse. Anche nella ricerca educativa, l’interdisciplinarità ha acquisito negli ultimi anni una notevole rilevanza ed è stata oggetto di riflessioni teoriche e di valutazioni sulle pratiche didattiche. Nell’ampio contesto di questo dibattito, questa tesi si focalizza sull’analisi dell’interdisciplinarità tra fisica e matematica, ma ancora più nel dettaglio sul ruolo che la matematica ha nei modelli fisici. L’aspetto che si vuole sottolineare è l’esigenza di superare una concezione banale e semplicistica, sebbene diffusa, per la quale la matematica avrebbe una funzione strumentale rispetto alla fisica, a favore invece di una riflessione che metta in luce il ruolo strutturale della formalizzazione matematica per l’avanzamento della conoscenza in fisica. Per fare ciò, si prende in esame il caso di studio dell’oscillatore armonico attraverso due lenti diverse che mettono in luce altrettanti temi. La prima, quella dell’anchor equation, aiuterà a cogliere gli aspetti fondamentali del ruolo strutturale della matematica nella modellizzazione dell’oscillatore armonico. La seconda, quella degli epistemic games, verrà utilizzata per indagare materiale didattico, libri di testo e tutorial, per comprendere come diverse tipologie di risorse possano condurre gli studenti ad intendere in modi diversi la relazione di interdisciplinarità tra fisica e matematica in questo contesto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi in oggetto ha lo scopo di determinare l’effetto della sabbiatura sul comportamento a fatica della lega AlSi10Mg prodotta mediante Laser Powder Bed Fusion e trattata termicamente. I parametri di processo e di trattamento termico (T5 e T6) sono stati precedentemente ottimizzati. Al fine di determinare l’effetto della sabbiatura su topografia superficiale e microstruttura dei campioni, si sono condotte molteplici analisi avvalendosi di strumenti quali profilometria, microscopia ottica ed in scansione, analisi di tensioni residue con diffrazione a raggi X e prove di durezza. Attraverso prove di fatica per flessione rotante, eseguite secondo il metodo Stair-Case per la determinazione della resistenza a fatica, e successiva caratterizzazione delle superfici di frattura si vuole correlare il difetto killer, ossia quello responsabile del cedimento per fatica, alle caratteristiche morfologiche e microstrutturali. Il difetto killer viene caratterizzato in termini di dimensione e distanza dalla superficie e per mostrare la relazione fra la dimensione del difetto killer e la resistenza a fatica si adotta il diagramma di Kitagawa-Takahashi con modellazione di Murakami ed EL Haddad. Si è evidenziato che tutti i difetti killer sono riconducibili a lack-of-fusion con dimensione superiore ai 100 μm ad una profondità compresa fra i 150 e i 200 μm, indipendentemente dal trattamento termico o meccanico applicato. In termini di fatica si osserva che il trattamento T6 conferisce al materiale migliori proprietà rispetto a quello T5. Il processo di sabbiatura, confrontato con quello di lucidatura superficiale, ha portato a miglioramenti in termini di durezza e tensioni residue di compressione, ma si è rivelato quasi ininfluente sulla resistenza a fatica. Sulla base di quanto sopra, si conferma la possibilità di applicazione della sabbiatura in ambito industriale a componenti meccanici, anche in sostituzione della lucidatura, ottenendo un beneficio anche economico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una importante problematica di risonanza mondiale è lo sviluppo di fenomeni sempre più frequenti di siccità e di scarsità idrica. Il presente elaborato intende illustrare come tale difficoltà stia colpendo il pianeta, con un focus sull’Italia e poi sull’Emilia-Romagna. Le cause scatenanti sono riconducibili all’aumento della popolazione, al depauperamento dei corpi idrici, ma soprattutto agli impatti del cambiamento climatico: incremento delle temperature, calo delle precipitazioni e quindi riduzione della ricarica delle fonti di approvvigionamento. Queste devono soddisfare un’intensa domanda da parte delle attività antropiche nonostante il loro stato sia sempre più preoccupante. In questo scenario è indispensabile adottare nuovi metodi per la gestione sostenibile delle riserve idriche, e il monitoraggio si rivela uno strumento utile in quanto fornisce informazioni dettagliate e aggiornate sullo stato quantitativo delle fonti. In particolare, il presente elaborato si focalizza sul progetto Resilient Dashboard, ideato in ambito regionale dalla collaborazione di più strutture operative di Hera S.p.A. Si tratta di uno strumento per l’analisi e il preannuncio di crisi idriche, basato sul monitoraggio di indicatori idrologici e meteorologici. Questo può essere di supporto per i gestori delle risorse, i quali possono individuare e poi intervenire sulle zone in cui si verifica maggiore criticità. Vengono dunque esaminati i processi che sono risultati necessari alla definizione del progetto, a partire dalla selezione degli elementi di interesse e dalla predisposizione delle elaborazioni da compiere su ciascuna tipologia di dato, fino allo sviluppo del criterio di assegnazione dei colori alle fonti e alle aree, per la segnalazione degli allarmi. Il progetto è ancora in corso di realizzazione, ma il suo obiettivo finale consiste nel produrre una piattaforma digitale di facile utilizzo che fornisca informazioni sullo stato delle fonti, in relazione alla domanda di risorsa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una delle applicazioni maggiormente richieste in ambito industriale è quella della presa e movimentazioni di oggetti. Questa tipologia di operazione trova diverse soluzioni nel mondo della robotica e automazione. Nella loro forma più comune un dispositivo di presa si presenta come una pinza motorizzata attraverso la quale è possibile eseguire l’afferraggio di oggetti. Tra essi si possono distinguere i Soft Gripper, ovvero quella classe di pinze che ricorrono a componenti flessibili e parti in materiali soffici che nell’azione di presa si conformano all’oggetto per deformazione dei componenti. Un esempio di questa tipologia di strumenti di presa è il Fin Ray. Tuttavia, questa tipologia di soft-gripper possiede delle limitazioni, come il carico massimo movimentabile determinato sostanzialmente dalla rigidezza della struttura. In questo contesto, al fine di superare tale limite, viene proposto di implementare sulla superficie di contatto un dispositivo a film-sottile elettroadesivo, per generare forze di taglio superficiali per principio elettrostatico, che aumentino la capacità di sollevamento del soft-gripper senza intaccare la sua caratteristica principale di conformità. Lo scopo della tesi è proprio un’analisi numerica e sperimentale di un Fin Ray integrato con un dispositivo elettroadesivo, con lo scopo di analizzare la forza scambiata con un oggetto. Il gripper progettato in questo lavoro, è così prima simulato, e poi realizzato in laboratorio per eseguire la caratterizzazione sperimentale. Gli esperimenti sono stati condotti su un banco prova per la misurazione della forza di contatto scambiata durante l’afferraggio. Per ottenere una validazione del modello sviluppato, sono stati realizzati dei gripper con due differenti materiali altamente deformabili, e con una combinazione di parametri fondamentali diversi, come la posizione e la dimensione dell’oggetto in presa, ottenendo infine una caratterizzazione completa del gripper sviluppato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Stereo Vision è un popolare argomento di ricerca nel campo della Visione Artificiale; esso consiste nell’usare due immagini di una stessa scena,prodotte da due fotocamere diverse, per estrarre informazioni in 3D. L’idea di base della Stereo Vision è la simulazione della visione binoculare umana:le due fotocamere sono disposte in orizzontale per fungere da “occhi” che guardano la scena in 3D. Confrontando le due immagini ottenute, si possono ottenere informazioni riguardo alle posizioni degli oggetti della scena.In questa relazione presenteremo un algoritmo di Stereo Vision: si tratta di un algoritmo parallelo che ha come obiettivo di tracciare le linee di livello di un area geografica. L’algoritmo in origine era stato implementato per la Connection Machine CM-2, un supercomputer sviluppato negli anni 80, ed era espresso in *Lisp, un linguaggio derivato dal Lisp e ideato per la macchina stessa. Questa relazione tratta anche la traduzione e l’implementazione dell’algoritmo in CUDA, ovvero un’architettura hardware per l’elaborazione pa- rallela sviluppata da NVIDIA, che consente di eseguire codice parallelo su GPU. Si darà inoltre uno sguardo alle difficoltà che sono state riscontrate nella traduzione da *Lisp a CUDA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'intelligenza artificiale (IA) trova nei giochi un campo di applicazione molto vasto, nel quale poter sperimentare svariate tecniche e proporre nuove stimolanti sfide che spingano i partecipanti ad esplorare nuovi orizzonti nell'ambito delle applicazioni di IA. La Keke AI Competition rappresenta una di queste sfide, introducendo una gara tra agenti intelligenti per il gioco Baba is You, puzzle game in cui i giocatori possono creare regole che influenzano le meccaniche del gioco in maniera temporanea o permanente. La natura di queste regole dinamiche crea una sfida per l'intelligenza artificiale, che deve adattarsi ad una varietà di combinazioni di meccaniche per risolvere un livello. Questo progetto di tesi si propone di realizzare un agente intelligente che possa idealmente partecipare alla competizione sfruttando tecniche di pianificazione automatica. In particolare, l'agente progettato si basa sull'algoritmo di pianificazione graphplan che opera a diversi livelli di astrazione posti in gerarchia tra loro ed è stato realizzato completamente in Prolog. Questo progetto mostra quindi come le tecniche di pianificazione automatica siano un valido strumento per risolvere alcune tipologie di giochi innovativi complessi nell'ambito dell'IA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato mira ad approfondire il settore della traduzione audiovisiva e, in particolare, la pratica dell’adattamento dialoghi per il doppiaggio, che costituisce la modalità traduttiva più utilizzata in Italia in ambito cinetelevisivo. L’elaborato prende come esempio tre episodi della serie TV britannica Inside No. 9 (BBC, 2014), di genere dark humour, per i quali vengono proposti la traduzione e l’adattamento dialoghi per il doppiaggio in italiano. Innanzitutto, viene presentata una panoramica generale sulla serie TV, sul contesto teorico della traduzione audiovisiva e dell’industria del doppiaggio, nonché, visto il genere della serie TV scelta, sulle strategie di traduzione più adeguate alla resa di contenuti audiovisivi umoristici. Successivamente, si passa a un’analisi previa del testo di partenza, con approfondimenti su tutti i fattori e i vincoli da tenere in considerazione durante la stesura dell’adattamento dialoghi. L’elaborato si conclude con un’analisi delle problematiche emerse durante il processo traduttivo e delle strategie impiegate per la realizzazione di una versione italiana fedele all’originale, con un focus sulle difficoltà specifiche legate alla natura intersemiotica del medium audiovisivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato analizza le rese del sistema di interpretazione automatica WT2 Plus di Timekettle in un reale contesto didattico. Nello specifico, sono state condotte tre sperimentazioni presso l’Accademia Europea di Manga utilizzando due modalità di interpretazione supportate dal dispositivo. L’obiettivo è valutare la qualità di un sistema di interpretazione automatica in un contesto reale, dato che allo stato attuale mancano studi che valutino la performance di questi dispositivi nei reali contesti per i quali sono stati sviluppati. Il primo capitolo ripercorre la storia dell’interpretazione automatica, cui fa seguito la spiegazione della tecnologia alla base dei sistemi disponibili sul mercato, di cui poi si presenta lo stato dell’arte. Successivamente si delinea in breve il prossimo passaggio evolutivo nell’interpretazione automatica e si analizzano tre casi studio simili a quello proposto. Il capitolo si conclude con l’approccio scelto per valutare la performance del dispositivo. Il secondo capitolo, dedicato alla metodologia, si apre con una panoramica su WT2 Plus e sull’azienda produttrice per poi descrivere il metodo usato nelle sperimentazioni. Nello specifico, le sperimentazioni sono state condotte durante alcune delle attività previste nel normale svolgimento delle lezioni presso l’Accademia Europea di Manga con il coinvolgimento di uno studente anglofono e di due membri del personale accademico. I dati raccolti sono analizzati e discussi rispettivamente nei capitoli 3 e 4. I risultati ottenuti sembrano suggerire che il dispositivo non sia, allo stato attuale, compatibile con un reale contesto didattico, per via del quasi mancato funzionamento di una delle modalità prescelte, per il servizio di interpretazione, che risulta ancora troppo letterale, la monotonia dell’intonazione della voce automatica e infine per la traduzione quasi completamente errata della terminologia tecnica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con l’avvento dell’Industry 4.0, l’utilizzo dei dispositivi Internet of Things (IoT) è in continuo aumento. Le aziende stanno spingendo sempre più verso l’innovazione, andando ad introdurre nuovi metodi in grado di rinnovare sistemi IoT esistenti e crearne di nuovi, con prestazioni all’avanguardia. Un esempio di tecniche innovative emergenti è l’utilizzo dei Digital Twins (DT). Essi sono delle entità logiche in grado di simulare il reale comportamento di un dispositivo IoT fisico; possono essere utilizzati in vari scenari: monitoraggio di dati, rilevazione di anomalie, analisi What-If oppure per l’analisi predittiva. L’integrazione di tali tecnologie con nuovi paradigmi innovativi è in rapido sviluppo, uno tra questi è rappresentato dal Web of Things (WoT). Il Web of Thing è un termine utilizzato per descrivere un paradigma che permette ad oggetti del mondo reale di essere gestiti attraverso interfacce sul World Wide Web, rendendo accessibile la comunicazione tra più dispositivi con caratteristiche hardware e software differenti. Nonostante sia una tecnologia ancora in fase di sviluppo, il Web of Thing sta già iniziando ad essere utilizzato in molte aziende odierne. L’elaborato avrà come obiettivo quello di poter definire un framework capace di integrare un meccanismo di generazione automatica di Digital Twin su un contesto Web of Thing. Combinando tali tecnologie, si potrebbero sfruttare i vantaggi dell’interoperabilità del Web of Thing per poter generare un Digital Twin, indipendentemente dalle caratteristiche hardware e software degli oggetti da replicare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricerca di esopianeti è un ambito astrofisico in continua evoluzione. Nuovi metodi vengono proposti con l’obiettivo di individuare pianeti con una varietà di caratteristiche sempre più ampia, per poter definire al meglio la storia di formazione ed evoluzione dei sistemi planetari. Un metodo recente in grado di caratterizzare pianeti di piccola massa è lo studio della variazione del tempo di transito (TTV), basato sulla modulazione del periodo orbitale di un pianeta noto causata dalla perturbazione di un corpo aggiuntivo. In questo lavoro proponiamo l’analisi delle curve di luce del pianeta XO-2Nb al fine di individuare TTV. Questo sistema è di particolare rilevanza poiché ospitato dalla prima stella binaria wide in cui entrambe le componenti presentano un proprio sistema planetario. Tra le due stelle solo XO-2N presenta un pianeta transitante, requisito per l’applicazione del metodo proposto. L’analisi dei dati è stata svolta utilizzando il metodo della fotometria differenziale di apertura, normalizzando la curva di luce del target ad altre due stelle di riferimento presenti nel campo di vista dello strumento. I risultati ottenuti evidenziano l’assenza di variazioni di periodo orbitale per XO-2Nb e sono consistenti con un’effemeride lineare. La nuova effemeride calcolata risulta tre volte più precisa rispetto al più recente studio in letteratura, e permetterà di predire futuri transiti con una precisione migliore di un minuto fino al 2035. Abbiamo stabilito un limite superiore all’ampiezza del TTV permessa dai nostri dati, ricavando il valore massimo della massa di un eventuale pianeta perturbatore, pari a 0.15 masse terrestri. Abbiamo ricavato in maniera indipendente i parametri fisici ed orbitali di XO-2Nb, confermando e raffinando i valori presenti in letteratura. I risultati ottenuti suggeriscono che, in determinati casi, l’analisi fotometrica eseguita utilizzando telescopi medio-piccoli da terra può essere competitiva con i più avanzati telescopi spaziali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una delle limitazioni funzionali più comunemente citate dai soggetti con amputazione agli arti inferiori è il deficit nel controllo dell’equilibrio. La perdita, più o meno parziale, di un arto è accompagnata da mancanze e succisivi adattamenti del sistema di controllo posturale. Considerando l’aumento dell’età della popolazione generale e la crescente incidenza delle cause di amputazioni su di essa, vi è un’inequivocabile necessità di indagare come il controllo posturale cambi in questi individui. A tal riguardo, è stata condotta una revisione sistematica dei metodi proposti in letteratura riguardanti l’analisi del controllo posturale in soggetti con amputazione unilaterale agli arti inferiori, mediante la posturografia dinamica. Partendo dall’articolo di riferimento: “Balance control in lower extremity amputees during quiet standing: A systematic review” (Ku et al., 2013), a dicembre 2022 è stata evidenziata ed estesa la ricerca, fino all’anno corrente, degli articoli riguardanti il medesimo argomento, ma esclusivamente in ambito dinamico. Dalla ricerca, condotta su PubMed e Scopus, sono stati selezionati 8 articoli scientifici, nei quali, attraverso l’utilizzo di dispositivi di equilibrio, vengono analizzati i meccanismi alla base del controllo posturale nelle persone con amputazione agli arti inferiori. Dai risultati si è potuto dimostrare che gli amputati unilaterali degli arti inferiori fanno molto affidamento su input visivi, vestibolari e segnali somatosensoriali dalla loro gamba intatta per compensare le informazioni somatosensoriali mancanti dell'arto amputato. Quando uno di questi viene compromesso, mostrano uno scarso controllo posturale rispetto agli individui normodotati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Routing rappresenta uno dei problemi più studiati nell’ambito della Ricerca Operativa in quanto offre molteplici possibilità di ottimizzazione da cui possono derivare altrettanti vantaggi per le aziende che decidono di gestirlo in maniera strutturata. Uno dei principali ambiti di applicazione del routing è la pianificazione operativa del trasporto merci a clienti sparsi in un determinato territorio. Ci sono aziende che devono organizzare la loro Logistica distributiva ogni giorno. Ormai è diventato evidente che la realizzazione di questo processo mediante modalità “standard”, senza l’utilizzo di appositi strumenti di ottimizzazione, non solo porta alla perdita di occasioni importanti in termini di vantaggi raggiungibili, ma è anche molto più dispendiosa a livello di tempo richiesto. Molte aziende si stanno quindi affidando a soluzioni SW che si vadano ad integrare con i loro processi decisionali. Questi sistemi hanno alla base delle componenti algoritmiche in grado di trovare la migliore soluzione possibile per la tipologia specifica di Routing da affrontare. Per questi motivi, lo sviluppo di algoritmi in grado di risolvere questo problema rappresenta una parte consistente della letteratura scientifica in ambito di ottimizzazione. In questo elaborato si andranno a definire le principali caratteristiche di un problema di Routing in forma base e nelle sue varianti principali. Si descriveranno le caratteristiche dei problemi di Routing incontrati da Optit S.r.l, un’azienda che opera nel settore dello sviluppo di soluzioni SW di ottimizzazione. Nel fare ciò, si cercherà di trovare sovrapposizione con quanto descritto in letteratura. Infine, si descriveranno alcuni solver Open-Source per risolvere problemi di Routing e si mostreranno i risultati da essi ottenuti su alcuni casi di interesse industriale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La maggioranza degli applicativi che utilizziamo quotidianamente come siti di e-commerce e portali di home banking basano il proprio funzionamento su un’infrastruttura a microservizi, cioè un modello architetturale in cui un insieme di più sottocomponenti collabora scambiandosi dati per permettere agli utenti finali di fruire di un servizio. Questo pattern rappresenta lo standard adottato dagli applicativi moderni che ha ormai soppiantato il più datato modello monolitico in cui l’intero funzionamento veniva gestito in un’unica unità implementativa di grandi dimensioni, difficile da sviluppare e mantenere all’aumentare delle funzionalità richieste. Decomporre un unico software in più sottocomponenti permette di ridistribuirne la complessità totale richiedendo però un insieme di accortezze e di strumenti consoni per gestire tutte le entità da sviluppare. A tale scopo al giorno d’oggi è molto importante l’utilizzo della telemetria, cioè la tecnologia che consiste nella raccolta a distanza dei dati generati dai componenti a scopo di analisi di funzionamento e performance dell’intera piattaforma. L’adozione di questa tecnologia comporta numerosi benefici, sia a livello implementativo che dal punto di vista del mantenimento della piattaforma, che potrà essere monitorata anche dopo il rilascio. In questo elaborato di tesi sono stati implementati due use case realistici di piattaforme a microservizi che ricevono ed elaborano dati, alle quali sono state aggiunte nella fase di sviluppo software le funzionalità di due diversi strumenti di telemetria. L’obiettivo è permettere l’analisi dello storico delle elaborazioni eseguite per poter ricostruire il funzionamento dell’intero applicativo a scatola chiusa, analizzando le metriche generate nei log dei microservizi o in un’interfaccia grafica raggiungibile tramite browser. All’interno dell’elaborato verranno descritti tutti i dettagli implementativi, analizzando poi i benefici ottenuti dall’adozione di questi strumenti.