1000 resultados para Modelli di ottimizzazione,Ricerca Operativa,Posti letto,Degenza
Resumo:
Modello su AMPL per ottimizzare la scelta del trasporto in base al tragitto, all'orario di partenza e all'intervallo di tempo considerato.
Resumo:
Il contesto dinamico in cui operano le aziende richiede, sempre più, sistemi di gestione flessibili e in continua evoluzione, e soprattutto richiede che le varie funzioni aziendali siano integrate tra loro. Così anche la funzione di manutenzione, la quale nei tempi passati, era considerata una funzione di supporto alla produzione, ora è vista come parte integrante della stessa. Pertanto è necessario che la gestione dei flussi logistici ed informativi relativi ai processi di manutenzione, siano il più possibile efficace ed efficienti, al fine di ridurre i costi complessivi sostenuti dall’azienda. L’elaborato tratta del dimensionamento di un magazzino ricambi e della relativa gestione operativa ed informativa, applicati ad un caso aziendale. Geberit Produzione Spa ha la necessità di migliorare i flussi della gestione manutentiva totale, andando a correggere le criticità rilevate nel sistema attuale. Il dimensionamento è sviluppato sulla base delle informazioni raccolte dal campo, le quali permettono di individuare la quantità ottimale di ricambi, che minimizzi da un lato i costi di mantenimento a scorta e dall’altro i costi dovuti alla mancanza dei ricambi nel momento necessario. Secondo le tipologie di materiale tecnico presenti, sono individuate le modalità di immagazzinamento e i mezzi di movimentazione più idonei, ed in base a questi viene definito il layout definitivo. Sono, poi, determinati i criteri di gestione dei flussi logistici e di informatizzazione dei processi, al fine di descrivere delle procedure standard che regolino l’operato del personale. Scelti gli indici di valutazione delle performance della manutenzione, è stata valutata la convenienza economica della realizzazione del progetto. Con questo studio vengono definite le fondamenta per una efficace ed efficiente gestione futura della manutenzione.
Resumo:
Andiamo ad inquadrare la figura femminile nell’organizzazione criminale presa in esame, ovvero la ‘Ndrangheta, mafia calabrese il cui nome deriva dal sostantivo greco andragathòs, che si traduce in forza, virilità, valore. È una mafia definita da molti come “liquida” per lo straordinario potere di penetrare in ogni ambito del sociale ed estendere i propri confini ben oltre il territorio calabro. Fondata sullo stretto ed indissolubile vincolo di sangue, la struttura interna della ‘Ndrangheta viene suddivisa in due livelli: la “Società Minore”, di cui fanno parte picciotto, camorrista e sgarrista, e la “Società Maggiore” che prevede “doti” di santista, vangelo, quartino, quintino e associazione. Più cosche, legate tra loro, danno vita al “Locale”, che costituisce l’unità fondamentale di aggregazione mafiosa su un determinato territorio, quasi sempre coincidente con un villaggio o con un rione di una città. Per la costituzione del “Locale” è necessaria la presenza di almeno 49 affiliati. Ogni locale è diretto da una terna di ‘ndranghetisti, detta copiata, quasi sempre rappresentata dal capobastone, dal contabile e dal capocrimine.
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.
Resumo:
Le tecniche di Machine Learning sono molto utili in quanto consento di massimizzare l’utilizzo delle informazioni in tempo reale. Il metodo Random Forests può essere annoverato tra le tecniche di Machine Learning più recenti e performanti. Sfruttando le caratteristiche e le potenzialità di questo metodo, la presente tesi di dottorato affronta due casi di studio differenti; grazie ai quali è stato possibile elaborare due differenti modelli previsionali. Il primo caso di studio si è incentrato sui principali fiumi della regione Emilia-Romagna, caratterizzati da tempi di risposta molto brevi. La scelta di questi fiumi non è stata casuale: negli ultimi anni, infatti, in detti bacini si sono verificati diversi eventi di piena, in gran parte di tipo “flash flood”. Il secondo caso di studio riguarda le sezioni principali del fiume Po, dove il tempo di propagazione dell’onda di piena è maggiore rispetto ai corsi d’acqua del primo caso di studio analizzato. Partendo da una grande quantità di dati, il primo passo è stato selezionare e definire i dati in ingresso in funzione degli obiettivi da raggiungere, per entrambi i casi studio. Per l’elaborazione del modello relativo ai fiumi dell’Emilia-Romagna, sono stati presi in considerazione esclusivamente i dati osservati; a differenza del bacino del fiume Po in cui ai dati osservati sono stati affiancati anche i dati di previsione provenienti dalla catena modellistica Mike11 NAM/HD. Sfruttando una delle principali caratteristiche del metodo Random Forests, è stata stimata una probabilità di accadimento: questo aspetto è fondamentale sia nella fase tecnica che in fase decisionale per qualsiasi attività di intervento di protezione civile. L'elaborazione dei dati e i dati sviluppati sono stati effettuati in ambiente R. Al termine della fase di validazione, gli incoraggianti risultati ottenuti hanno permesso di inserire il modello sviluppato nel primo caso studio all’interno dell’architettura operativa di FEWS.
Resumo:
L’attività svolta durante il dottorato è stata incentrata su due tematiche riguardanti: (i) la modifica della composizione chimica delle classiche leghe di alluminio da fonderia per incrementarne la resistenza e stabilità termica; (ii) lo studio del comportamento a fatica di acciai innovativi alto-resistenziali, allo scopo di valutarne il loro utilizzo per la produzione di alberi motore e distribuzione in sostituzione dei tradizionali acciai utilizzati dopo bonifica e trattamento superficiale di nitrurazione. La messa a punto di una lega di alluminio da fonderia con elevata resistenza in temperatura ha richiesto, oltre all’individuazione della composizione chimica, l’ottimizzazione del trattamento termico e una completa caratterizzazione meccanica statica a fatica sia a temperatura ambiente sia a 200°C. L’attività ha permesso di sviluppare una lega, ottenuta aggiungendo 1,3% in peso di rame alla classica lega A357 (Al-Si-Mg), cha ha mostrato avere proprietà meccaniche superiori a quelle delle tradizionali leghe Al-Si-Mg-Cu quali la A354 e C355 sia a temperatura ambiente che a 200 °C dopo lunga esposizione in temperatura. Per quanto riguarda gli acciai innovativi, dopo una preliminare analisi di mercato per individuare quali acciai potessero essere oggetto di studio, è stato valutato come migliorarne le prestazioni a fatica, anche in presenza d’intaglio, attraverso la scelta del trattamento termico più opportuno e del processo di pallinatura. I risultati delle caratterizzazioni microstrutturale e meccanica svolte hanno permesso di individuare due acciai (nomi commerciali K890 e ASP2017) ottenuti per metallurgia delle polveri, ad oggi utilizzati solo per la produzione di stampi e/o utensili, in grado di sostituire gli acciai con cui vengono oggi realizzati i componenti, senza la necessità di eseguire il trattamento di nitrurazione
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Il termine go-tv fa riferimento a i sistemi di videocomunicazione collocati a bordo di mezzi di trasporto e in ambienti collegati, ad alto transito di passeggeri. Limitando l’analisi al territorio italiano, la ricerca intende ricostruire le coordinate storiche del suo sviluppo, inquadrandolo entro il più ampio contesto dei media contemporanei. Da un punto di vista teorico, sono considerati sia il legame del mezzo con l’ambiente urbano, sia le interconnessioni tra comunicazione, mobilità e trasporti, riflesse nel particolare statuto sociale e topologico chiamato in causa dai suoi luoghi di consumo. Dall’approvvigionamento alla messa in onda dei contenuti, cardine speculativo del lavoro è la disamina, su base esplorativa, delle consuetudini commerciali e professionali sottese a questo speciale canale di distribuzione audiovisiva, nel quadro di apposite pratiche d’azienda, campionate nel solco degli studi sulla produzione mediale. Tre sono gli snodi principali del progetto: la proposta di una definizione univoca del fenomeno, condivisibile dai diversi attori coinvolti nella filiera, una prima modellizzazione del suo profilo mediale e una mappatura dei principali casi di go-tv rinvenibili a livello nazionale, arricchita da una serie di studi di caso.
Resumo:
L’energia da onda potrebbe assumere un ruolo fondamentale per la transizione energetica durante i prossimi decenni, grazie alla sua continuità nel tempo molto superiore rispetto ad altre risorse rinnovabili e alla sua vasta distribuzione nello spazio. Tuttavia, l’energia da onda è ancora lontana dall’essere economicamente sostenibile, a causa di diverse problematiche tecnologiche e alle difficoltà finanziarie associate. In questa ricerca, si è innanzitutto affrontata una delle maggiori sfide tecniche, nello specifico la progettazione e modellazione di sistemi di ancoraggio per i dispositivi galleggianti, proponendo possibili soluzioni per la modellazione numerica di sistemi di ancoraggio complessi e per l’ottimizzazione dei dispositivi stessi. Successivamente sono state analizzate le possibili sinergie strategiche di installazioni per lo sfruttamento della energia da onda con altre risorse rinnovabili e la loro applicazione nel contesto di aree marine multiuso. In particolare, una metodologia per la valutazione della combinazione ottimale delle risorse rinnovabili è stata sviluppata e verificata in due diversi casi studio: un’isola e una piattaforma offshore. Si è così potuto evidenziare l’importante contributo della risorsa ondosa per la continuità energetica e per la riduzione della necessità di accumulo. Inoltre, è stato concepito un metodo di supporto decisionale multicriteriale per la valutazione delle opzioni di riuso delle piattaforme offshore alla fine della loro vita operativa, come alternativa al decommissionamento, nell’ottica di una gestione sostenibile e della ottimizzazione dell’uso dello spazio marino. Sulla base dei criteri selezionati, l’inclusione di attività innovative come la produzione di energia da onda si è dimostrata essere rilevante per rendere vantaggioso il riuso rispetto al decommissionamento. Numerosi studi recenti hanno infatti sottolineato che, nell’ambito della “crescita blu”, i mercati come l’oil&gas, le attività offshore e le isole stimoleranno lo sviluppo di tecnologie innovative come lo sfruttamento dell’energia da onda, promuovendo la sperimentazione e fornendo un importante contributo all’avanzamento tecnico e alla commercializzazione.
Resumo:
L'inibizione del complesso respiratorio I (CI) è una strategia antitumorale emergente, sebbene la specificità e l’efficacia di nuovi farmaci restino poco investigate. La generazione di modelli cellulari tumorali nulli per il CI rivela la specificità di EVP 4593 e BAY 872243 nell’indurre gli effetti antiproliferativi non associati all’apoptosi, selettivamente via CI, riducendo eventuali effetti collaterali. Studi preliminari in vivo evidenziano un rallentamento della crescita tumorale negli animali trattati con EVP 4593, il quale emerge come l’inibitore più potente. Per il suo ruolo nella riprogrammazione metabolica, e la sua elevata frequenza di mutazioni nelle neoplasie umane, sono stati investigati i potenziali meccanismi di adattamento alla terapia anti-CI sulla base dello stato mutazionale di TP53. L’auxotrofia da aspartato, un hallmark metabolico delle cellule tumorali con un danno al CI, causa un blocco della sintesi proteica mTORC1-dipendente nelle linee cellulari con una p53 mutata o nulla, inducendo un collasso metabolico. Viceversa, l'attivazione del sensore energetico AMPK promuove un recupero parziale della sintesi di aspartato in linee cellulari con la forma wild type di P53, che è in grado di sostenere una migliore anaplerosi attraverso SCO2, fattore di assemblaggio del complesso respiratorio IV. Al fine di traslare questi risultati in un modello preclinico, si è ottimizzato l’ottenimento di colture di tumori umani espiantati tramite il bioreattore U-CUP. Il modello scelto è stato quello di carcinoma sieroso ad alto grado dell’ovaio (HGSOC), a partire da tessuto congelato, per l’elevata frequenza di mutazioni driver in TP53. I tessuti congelati preservano l'eterogeneità delle componenti cellulari del tessuto di origine e sono caratterizzati da cellule in attiva proliferazione senza attivazione di apoptosi. Dati preliminari mostrano un trend di riduzione dell’area tumorale nei tessuti trattati con EVP 4593 e supportano l’utilizzo del modello preclinico nello studio di nuovi inibitori del CI sfruttando materiale primario di pazienti oncologici.
Resumo:
I pazienti affetti da patologie oncologiche avanzate hanno un'esperienza di sintomi multipli spesso concomitanti tra loro. Lo scopo di questo progetto è quello di valutare come, nel contesto di un’ambulatorio integrato di Radioterapia e Cure Palliative (rep), sia possibile descrivere e quantificare i sintomi riportati dal paziente attraverso uno strumento di analisi convalidato, nello specifico l’Edmonton Symptom Assessment System (ESAS) al fine di costruire una proposta terapeutica ottimizzata per il singolo paziente. Da aprile 2016 ad aprile 2020, sono stati analizzati gli accessi al rep per un totale di 519 accessi, quindi abbiamo selezionato solo le visite dei pazienti che avevano completato totalmente lo strumento ESAS per la valutazione dei sintomi. La popolazione in studio era quindi composta da 212 pazienti, di questi 120 erano uomini, 92 erano donne, l'età media era di 72 anni, del totale il 36% era stato sottoposto a radioterapia. I principali risultati ottenuti dall'analisi dei dati relativi alla popolazione in studio sono stati i seguenti: 1) il 25% dei pazienti muore entro 2,2 mesi, il 60% entro 6 mesi; 2) la popolazione maschile ha un rischio di morte più elevato rispetto alla popolazione femminile; 3) Esiste una chiara differenza negli indici di correlazione tra la popolazione femminile e quella maschile 4) I principali sintomi correlati sono: dolore, mancanza di appetito, ansia, sonnolenza; 5) Il sintomo del dolore non è associato ad un aumento del rischio di morte, mentre la mancanza di appetito e sonnolenza sono associati ad un aumento del rischio di morte. In conclusione, i dati a nostra disposizione hanno dimostrato che un'analisi approfondita dei sintomi attraverso lo strumento ESAS è fattibile e necessaria portando informazioni fondamentali per una gestione ottimale del paziente, dandoci la possibilità di muoverci verso l'opportunità di trattamenti sempre più personalizzati e individualizzati in base alle caratteristiche dei singoli pazienti.
Resumo:
Il presente elaborato di tesi è parte di un ampio progetto finalizzato alla realizzazione di uno scarpone da sci ottenuto per il 90% di materiale da riciclo di scarponi da sci a fine vita. L’obiettivo è di realizzare la progettazione del nuovo scarpone, e caratterizzarne le proprietà flessionali avvalendosi ti tecniche di simulazione numerica FEM validata attraverso Correlazione di Immagini Digitale. La caratterizzazione flessionale è realizzata con la prova del Flex Test, che consiste nell’imporre una flessione dorsale ad una protesi di gamba. Le prime simulazioni FEM di questo complesso modello hanno evidenziato delle criticità. La presente ricerca, si pone l’obiettivo di risolvere singolarmente questi problemi. Inizialmente, si è realizzata la blend polimerica dei materiali dello scafo e del gambetto dello scarpone. Si è effettuata la caratterizzazione meccanica del materiale, confrontandolo con il materiale vergine. Si è poi ricercato il modello costitutivo più adeguato di materiale iperelastico per il FEM. Successivamente, si è ottenuto il modello CAD della scarpetta attraverso l’approccio reverse engineering, con la tecnica della scansione 3D, la quale ha consentito di ottenere il file. STEP da aggiungere al modello FEM. La conoscenza della geometria effettiva ha consentito di realizzare il design della nuova scarpetta ottenuta da materiale riciclato. Infine, si è utilizzata la Correlazione di Immagini Digitali per studiare la cinematica della chiusura dei ganci dello scafo, e per studiare lo stato di deformazione residua a chiusura effettuata. Si è valutata l’influenza del piede della protesi, e della scarpetta, durante la chiusura dei ganci. In seguito, si è confrontato quanto ottenuto dalle evidenze sperimentali della DIC, con la simulazione agli elementi finiti. Si tratta di un approccio innovativo, che vede per la prima volta implementata la Correlazione di Immagini Digitali per realizzare la caratterizzazione meccanica di uno scarpone da sci.
Resumo:
L’attività di ricerca svolta in questa tesi ha riguardato gli aspetti microstrutturali, le proprietà meccaniche e l’ottimizzazione del trattamento termico di un acciaio inossidabile indurente per precipitazione processato mediante tecnologia additiva Laser Powder Bed Fusion (L-PBF). I provini, realizzati presso il competence center Bi-REX (Bologna) e lavorati presso il laboratorio di Metallurgia del DIN, sono stati oggetto di vari trattamenti termici sperimentali in cui è stata fatta variare la temperatura e la durata di mantenimento in forno, al fine di identificare la combinazione ottimale di temperatura e tempo sia per la fase di solubilizzazione che di invecchiamento. Nello specifico, la scelta dei parametri di solubilizzazione e invecchiamento è stata fatta solo sulla base dei trend di durezza. Da queste attività sono stati scelti i parametri di trattamento che garantissero elevata durezza, prossima alla massima ottenibile, senza durate di invecchiamento eccessive. L'esito della sperimentazione ha permesso di ridurre sensibilmente temperatura e durata di solubilizzazione rispetto al trattamento benchmark senza penalizzazione della durezza risultante. Dopodiché è stata eseguita una caratterizzazione microstrutturale e meccanica dell’acciaio, in termini di durezza, trazione e resilienza, per confrontare il trattamento termico ottimizzato con la condizione As-Built (AB) e con il trattamento termico standard indicato dal produttore. L’elevata durezza misurata dopo invecchiamento si deve alla presenza di precipitati di rinforzo in grado di ostacolare il moto delle dislocazioni. Le prove meccaniche hanno confermato l’ottenimento di elevata resistenza a snervamento e a trazione, superiore al benchmark, ma di un basso allungamento a rottura e bassissima resilienza a causa di difetti quali porosità, mancate fusioni e spattering. Infine, lo studio delle superfici di frattura ha permesso di analizzare i meccanismi di rottura dei campioni di trazione e resilienza.
Resumo:
Il presente lavoro di tesi si occupa di identificare le possibili ubicazioni di hub logistici distributivi del gruppo aziendale FAAC Technologies e di valutare le alternative da un duplice punto di vista: economico e sostenibile. Per raggiungere il suddetto risultato è stata dapprima studiata l’attuale configurazione logistica nel centro Europa. Unendo le caratteristiche dell’azienda con le ricerche presenti in letteratura scientifica riguardo la risoluzione di Hub Location Problem, è stato implementato un modello matematico che ottimizzi economicamente il posizionamento degli stabilimenti secondo diversi scenari organizzativi. Una seconda versione del modello valuta il rispetto dei tempi di transito da parte delle soluzioni ottenute. Infine, gli stessi scenari sono stati comparati tra loro in base all’impatto ambientale in termini di CO2 emessa nell’atmosfera per via del trasporto. Sono state studiate strategie riguardanti la logistica distributiva sostenibile e sono state proposte soluzioni in grado di mitigare gli effetti dovuti all’immissione di anidride carbonica. Gli strumenti digitali utilizzati nella presente ricerca sono stati: Excel per visualizzare ed elaborare i dati aziendali; Flourish per visualizzare i dati in mappe geografiche; MATLAB per trasformare le tariffe di trasporto in equazioni matematiche; Gurobi Optimizer per ottenere le soluzioni date dall’ottimizzazione del modello matematico, programmando attraverso il linguaggio AMPL. I risultati più significativi dimostrano la possibilità di raggiungere un risparmio economico del 16,7% dei costi logistici nel caso di ubicazione di un solo hub e del 9,8% nel caso di due hub. Dal punto di vista ambientale le medesime soluzioni comportano un aumento delle emissioni di CO2 rispettivamente del 45% e 8%. L’azzeramento di queste emissioni aggiuntive è possibile e a tal fine sarebbe necessario sostenere extra costi, i quali farebbero convergere entrambe gli scenari ad un risparmio comune pari all’8,2%.
Resumo:
I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.