975 resultados para intelligenza artificiale orario sistemi basati sulla conoscenza
Resumo:
L'obbiettivo di questa tesi è svolgere una trattazione semplice ma esauriente degli aspetti essenziali per lo studio delle configurazioni di equilibrio di semplici sistemi meccanici. In particolare l'analisi è volta a far parte del 'Progetto Matematica'; un portale del Dipartimento di Matematica dell'Università di Bologna, il cui scopo, attraverso le tesi di chi vi partecipa, è ''presentare la Matematica del primo biennio delle facoltà scientifiche in maniera interattiva, graduale, multimediale: in una parola, nel modo più amichevole possibile''. L'analisi, dopo alcuni richiami su elementi di base di calcolo vettoriale, si apre con un capitolo che enuncia nozioni e risultati fondamentali di meccanica classica, indispensabili per affrontare il problema dell'equilibrio nell'ambito della statica. Con il secondo capitolo inizia la trattazione delle configurazioni di equilibrio partendo dalla statica del punto materiale per poi passare ai sistemi più complessi costituiti da un numero arbitrario di punti. Per la parte di applicazioni vengono illustrati i due metodi classici di risoluzione: quello basato sulle equazioni cardinali della statica, che oltre ad individuare le configurazioni di equilibrio del sistema consente di determinare anche i corrispondenti valori delle reazioni vincolari, e quello basato sul principio dei lavori virtuali. Vengono poi riportati tre problemi standard la cui risoluzione è svolta attraverso entrambi i metodi per cercare di garantire una più completa comprensione della materia. Per l'esposizione degli argomenti analizzati si è fatto riferimento principalmente ai Trattati: D. Graffi, 'Elementi di Meccanica Razionale', Patron, Bologna 1973; S. Graffi, 'Appunti dalle lezioni di Fisica Matematica II'; a cui si rinvia per ogni ulteriore approfondimento (sulla materia),in particolare riguardo ai dettagli che, per necessità di sintesi, si sono dovuti omettere.
Resumo:
L’ossido di grafene è caratterizzato da una elevata quantità di gruppi funzionali contenenti ossigeno sia sulla superficie che sui bordi e grazie ad essi è altamente disperdibile in acqua. Questa peculiare caratteristica permette il suo utilizzo come catalizzatore nelle reazioni in fase liquida. I materiali grafenici possono essere impiegati come catalizzatori e come supporti in diversi campi della catalisi, tra cui la bioraffineria. Uno dei principali derivati da biomasse è il 5-idrossimetilfurfurale (HMF). In questa tesi è stata investigata la reazione di riduzione selettiva del gruppo aldeidico di HMF per ottenere 2,5-bisidrossimetilfurano (BHMF), utilizzato per la produzione di polimeri e come intermedio per la produzione di acido adipico ed esametilediammina. In questo lavoro di tesi si è cercato di sviluppare un catalizzatore in grado di operare a bassa temperatura e con basse pressioni di H2, utilizzando acqua come solvente. Lo scopo di questo lavoro è stato quindi lo studio e la caratterizzazione di catalizzatori eterogenei in pellet a base di Pt/ossido di grafene/ossidi ceramici (TiO2, Al2O3) e la loro applicazione nella reazione di riduzione del 5-idrossimetilfurfurale (HMF) a 2,5-bisidrossimetilfurano (BHMF) in fase liquida. Per lo sviluppo del catalizzatore sono state indagate diverse vie di sintesi e diversi precursori di Pt. Per conoscere le condizioni ottimali di reazione, selezionare il supporto ottimale e studiare l’influenza dell’area superficiale sono stati preparati catalizzatori tradizionali di riferimento in polvere. Le prestazioni dei catalizzatori in polvere sono state inoltre confrontate con i catalizzatori analoghi in pellet per verificare l’influenza del trasferimento di materia. Infine, si è studiata l’influenza del GO nell’attività catalitica utilizzando due forme cristalline di titania. I dati catalitici ottenuti sono stati confrontati con dei catalizzatori convenzionali in polvere di Pt supportato su carbone (grafene e carbone attivo). Le proprietà dei catalizzatori preparati sono state messe in relazione con la loro attività catalitica.
Resumo:
Le tecniche di imaging al seno per la rilevazione di tumori stanno interessando un notevole numero di gruppi di ricerca in campo biomedico soprattutto negli ultimi anni. In particolare si cercano metodologie innovative in quanto le attuali tecniche già sviluppate e utilizzate in campo clinico, mammografia a raggi X e risonanza magnetica (MRI), presentano alcuni limiti. Questa tesi si focalizzerà in particolare su una di queste tecniche emergenti: l’imaging a microonde (MWI). Questo metodo infatti, limita notevolmente i costi, evita disagi per la paziente come la compressione del seno, penetra in modo ottimale nei tessuti e non li ionizza. La MWI si basa sulle diverse proprietà dielettriche, permittività e conduttività, dei vari tessuti che costituiscono la mammella, in particolare tra tessuto sano e maligno. Lo scopo di questa tesi è quello di analizzare tali proprietà dielettriche, le diversità che i vari tessuti presentano e come tutto ciò venga sfruttato per ottenere l’imaging della mammella. In particolare questo lavoro si propone di riportare e analizzare i principali studi sui tessuti biologici della mammella compiuti nel corso degli anni riguardo queste proprietà dielettriche e i rispettivi risultati ottenuti. Si tratteranno inoltre i mezzi di accoppiamento: soluzioni in cui è immerso l’assetto antenne-oggetto che minimizzano la riflessione del segnale sulla pelle e assicurano una migliore qualità di immagine.
Resumo:
L’idea del presente elaborato è nata da una curiosità ed interesse personale di un corso svolto in Erasmus presso la Fachhochschule Köln. Ho subito pensato di approfondire il tema dell’interprete giudiziario e giuridico come figura determinante sia nel processo penale che nella società. Per dare un quadro generale della situazione ho deciso di dividere la tesi in tre capitoli. Nel primo capitolo spiegherò il concetto di interpretazione, attività interlinguistica tesa a creare una comunicazione tra persone di diverse lingue, presentando le varie tipologie e facendo un accenno alla figura del mediatore linguistico-interculturale. Nel secondo capitolo, porrò l’attenzione sul diritto all’assistenza linguistica dell’imputato e della vittima alloglotta durante il processo penale con l’obiettivo di evidenziare le tutele linguistiche europee e in particolar modo italiane. Mi concentrerò, inoltre, sulla mancanza di una formazione adeguata della professione, in Italia, con lo scopo di delineare la necessità di agire di fronte a una situazione di diritti negati, di ruoli misconosciuti, di assenza di consapevolezza e di conoscenza. Nel terzo ed ultimo capitolo mi soffermerò sull’interpretazione giuridica analizzando il video pedagogico di un interrogatorio della questura di Forlì-Cesena, tratto dal progetto europeo ImPLI - Improving Police and Legal Interpreting, per mettere in evidenza le tecniche di interrogatorio utilizzate e le difficoltà che si presentano nel mediare per le indagini di polizia.
Resumo:
I paradigmi di programmazione più utilizzati nella realizzazione di sistemi embedded presentano delle limitazioni, in quanto non consentono di modellare alcuni aspetti fondamentali. Il paradigma ad agenti presenta delle caratteristiche che consentono di modellare alcuni aspetti fondamenetali di un sistema embedded, oltre a fornire un livello di astrazione più elevato. All'interno di questa tesi verranno mostrati i concetti fondamentali di questo paradigma, mostrando inoltre i costrutti di base di un linguaggio ad agenti come Jason. Nella programmazione ad agenti, l'ambiente riveste un ruolo fondomentale. All'interno di questa trattazione verrà introdotto un paradigma per la programmazione di ambienti, descrivendo inoltre il framework di riferimento: CArtAgo. Dopo aver descritto i concetti e gli strumenti per applicare il paradigma ad agenti, verrà proposto un metodo per la realizzazione di sistemi embedded tramite l'applicazione di Jason sulla scheda di prototipazione Arduino.
Resumo:
Il lavoro è stato svolto presso IEMCA, azienda attiva nel settore della produzione di caricatori automatici di barre, e si è composto a grandi linee di tre fasi. Nella prima di queste tre fasi è stata analizzata la strumentazione adatta ad eseguire i rilievi di vibrazioni disponibile in azienda con il fine di comprenderne le potenzialità. Questa prima parte del lavoro si è conclusa con il consolidamento di una buona conoscenza del software e dell'hardware a disposizione. Nella seconda fase ci si è concentrati invece sull'elaborazione di un metodo di analisi delle vibrazioni applicabile alle macchine prodotte da IEMCA. A questo scopo si è studiata la macchina denominata Master80Up con il fine di ricavare una procedura di indagine estendibile in futuro anche agli altri sistemi automatici prodotti da IEMCA. La scelta di questo particolare modello è discesa dall'essere in corso di aggiornamento nel momento particolare in cui si è svolto il lavoro. La seconda fase ha visto inizialmente l'elaborazione di un modello fisico della macchina, utilizzato poi nel seguito come supporto all'esecuzione dell'analisi della vibrazione libera della struttura che ha permesso di ottenere una stima qualitativa delle frequenze naturali e dei modi di vibrare del sistema. Nella terza fase infine si è ripetuta la procedura elaborata sulla versione aggiornata della macchina, denominata Master80HD, per verificare gli effetti di irrobustimenti strutturali studiati dall'ufficio tecnico i quali si sono rivelati utili in generale alla riduzione della vibrazione della macchina.
Resumo:
Il lavoro svolto in questa tesi è legato allo studio ed alla formulazione di metodi computazionali volti all’eliminazione del noise (rumore) presente nelle immagini, cioè il processo di “denoising” che è quello di ricostruire un’immagine corrotta da rumore avendo a disposizione una conoscenza a priori del fenomeno di degrado. Il problema del denoising è formulato come un problema di minimo di un funzionale dato dalla somma di una funzione che rappresenta l’adattamento dei dati e la Variazione Totale. I metodi di denoising di immagini saranno affrontati attraverso tecniche basate sullo split Bregman e la Total Variation (TV) pesata che è un problema mal condizionato, cioè un problema sensibile a piccole perturbazioni sui dati. Queste tecniche permettono di ottimizzare dal punto di vista della visualizzazione le immagini in esame.
Resumo:
L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
L’insufficienza renale cronica è una malattia di grande impatto sulla sanità pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, è il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale è il dispositivo attraverso il quale si effettua la terapia, ed è frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dell’organismo umano. Per questo è sempre più importante dotarlo di un adeguato set di sensori che permettano di monitorare l’efficacia del trattamento. L’emodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare è la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: è stata però recentemente evidenziata la sensibilità indesiderata di questa seconda tecnica ai cambiamenti di osmolarità del sangue sotto analisi. Lo studio presentato in questa tesi è volto a migliorare l’accuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze d’onda alla quale i dati vengono acquisiti. La stima del RBV è gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.
Resumo:
L’anguilla europea, Anguilla anguilla, è una specie gravemente minacciata, sia da impatti diretti legati al sovrasfruttamento della specie a tutti gli stadi del ciclo vitale, che indiretti come l’urbanizzazione costiera e la perdita di habitat lagunari. Negli ultimi 45 anni è stata documentata una riduzione del tasso di reclutamento di anguilla europea del 90%. Lo scopo di questo studio è stato approfondire le modalità riproduttive di A. anguilla per via indiretta, attraverso un’analisi di paternità. Il Centro di ricerca universitario di Cesenatico (Laboratori di Acquacoltura ed Igiene delle Produzioni Ittiche – Università di Bologna) ha avviato le prime sperimentazioni su A. anguilla, al fine di mettere a punto un protocollo di riproduzione artificiale. Nell’estate 2015 i ricercatori hanno ottenuto sette riproduzioni spontanee in ambiente controllato, da queste sono state campionate casualmente e genotipizzate circa 40 larve per ogni mandata riproduttiva e i relativi riproduttori per condurre l’analisi di paternità. In ogni riproduzione è stata utilizzata sempre e soltanto una femmina e tre o quattro maschi; le analisi genetiche, condotte utilizzando 9 loci microsatelliti, si sono focalizzate sull’individuazione dei padri e l’assegnamento di paternità è avvenuto con un livello di confidenza medio dell’89%. Dalle analisi effettuate è emerso che: 1) i maschi di questa specie, precedentemente sottoposti a stimolazioni ormonali per indurne la riproduzione e la fertilità, sono in grado di partecipare con successo a più di una riproduzione; 2) più esemplari riescono a fecondare gli ovociti di una sola femmina e sembrano stabilirsi modelli gerarchici di dominanza in quanto si è osservato generalmente che un maschio prevale sugli altri, generando da solo più del 50% della prole. Questo studio pilota rappresenta, quindi, un punto di partenza per approfondimenti futuri sulle modalità riproduttive dell’anguilla europea.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.
Resumo:
Questo studio è mirato ad analizzare ed ottimizzare il consumo dei reagenti solidi impiegati da uno stabilimento di termovalorizzazione di rifiuti solidi urbani e speciali (Silea S.p.A, presso Valmadrera (LC)), per abbattere le correnti acide trattate nelle due linee fumi multistadio. Dopo aver scelto quale delle due linee prendere come riferimento, per poi riportare i risultati ottenuti anche sull’altra con opportune correzioni, il lavoro è stato condotto in diverse fasi, e affiancato da un costante confronto diretto con gli ingegneri e i tecnici dello stabilimento. Una volta preso atto delle normali condizioni di funzionamento dell’impianto, si è proceduto all’esecuzione di test, mirati a quantificare l’efficienza di rimozione dell’acido cloridrico, da parte del bicarbonato di sodio e dell’innovativo sorbente dolomitico, brevettato sotto il nome: Depurcal® MG. I test sono stati suddivisi in giornate differenti in base al tipo di reattivo da analizzare (e quindi lo stadio) e programmati in modo che permettessero di correlare la conversione dell’HCl alla portata di reagente solido introdotto. Una volta raccolti i dati, essi sono stati elaborati e filtrati in base a criteri oggettivi, per poi essere analizzati con senso critico, fornendo un quadro completo sulla reale potenzialità dell’impianto. Attraverso l’utilizzo di un opportuno modello è stato possibile caratterizzarlo e individuare la migliore condizione economico-operativa per ognuno dei possibili scenari individuati.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
Il rilevamento e l’analisi delle frodi è una delle attività cruciali per un sistema di carrier billing. Una frode non rilevata prontamente può causare ingenti danni economici, mentre un falso positivo porta ad uno spreco di tempo da parte del team di Reporting and Control. In questa tesi viene studiato il dominio di un Payment Service Provider (PSP) operativo nel settore del carrier billing, andando ad approfondire il sistema di rilevamento delle frodi basato sull’analisi di serie storiche con la tecnica Holt-Winters. Verrà fornita una panoramica sull’architettura del sistema seguita da alcuni esempi in cui la scarsa qualità delle predizioni ha causato una perdita economica o temporale al PSP. Verranno quindi proposte numerose soluzioni per estendere e migliorare il sistema attuale, concentrandosi principalmente sulla pulizia dei dati da analizzare e sullo sfruttamento di informazioni implicitamente contenute nei dati. I miglioramenti apportati possono essere divisi in due categorie: quelli che necessitano della supervisione dell’essere umano e quelli che possono essere ottenuti in modo automatico da un algoritmo. Alcune di queste soluzioni verranno implementate e commentate confrontando le prestazioni del sistema prima e dopo le varie implementazioni. Alcune proposte verranno invece trattate solamente a livello teorico ma faranno parte degli sviluppi futuri. Infine si cercherà di trarre delle conclusioni, dimostrando come nel dominio del carrier billing sia possibile ottenere prestazioni soddisfacenti grazie ad un filtraggio supervisionato dei dati delle serie storiche, mentre i tentativi di filtraggio non supervisionato hanno fornito risultati contrastanti.