605 resultados para Immagini Analisi Tomosintesi CUDA Ricostruzione Qualità
Resumo:
In questo elaborato sono state messe a confronto differenti procedure per la creazione di file in formato STL a partire da dati tomografici. Questo tipo di formato di dati è attualmente molto richiesto in quanto è adottato dalle stampanti 3D. I tre software presi in analisi, nello specifico, sono: DEVIDE, un programma open source, compatibile sia con Windows che con Linux, sviluppato presso la Delft University of Technology, nei Paesi Bassi; Imagej, un programma informatico di elaborazione digitale delle immagini, accessibile a tutti, basato su Sun-Java e sviluppato dal National Institutes of Health negli Stati Uniti; e infine VGStudioMax, un software sviluppato in Germania dalla VolumeGraphics GmbH. Un confronto diretto di questi software ha portato ad evidenziare i pregi ed i difetti d’ognuno di questi programmi, prendendo come criteri svariati fattori, tra cui la possibilità di scelta di uno o più soglie per i livelli di grigio, la velocità di esecuzione, il fatto che sia open-source o meno, ecc. I risultati ottenuti tramite l’utilizzo di slice filtrate riguardanti una Cera Anatomica e un Feticcio Africano, sono stati molto soddisfacenti, in quanto hanno permesso la realizzazione di modelli virtuali 3D di entrambi i reperti nel formato richiesto.
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di analizzare i campioni di otoliti delle due specie del genere Mullus (Mullus barbatus e Mullus surmuletus) per mezzo dell’Analisi Ellittica di Fourier (EFA) e l’analisi di morfometria classica con gli indici di forma, al fine di verificare la simmetria tra l’otolite destro e sinistro in ognuna delle singole specie di Mullus e se varia la forma in base alla taglia dell’individuo. Con l’EFA è stato possibile mettere a confronto le forme degli otoliti facendo i confronti multipli in base alla faccia, al sesso e alla classe di taglia. Inoltre è stato fatto un confronto tra le forme degli otoliti delle due specie. Dalle analisi EFA è stato possibile anche valutare se gli esemplari raccolti appartenessero tutti al medesimo stock o a stock differenti. Gli otoliti appartengono agli esemplari di triglia catturati durante la campagna sperimentale MEDITS 2012. Per i campioni di Mullus surmuletus, data la modesta quantità, sono stati analizzati anche gli otoliti provenienti dalla campagna MEDITS 2014 e GRUND 2002. I campioni sono stati puliti e analizzati allo stereomicroscopio con telecamera e collegato ad un PC fornito di programma di analisi di immagine. Dalle analisi di morfometria classica sugli otoliti delle due specie si può sostenere che in generale vi sia una simmetria tra l’otolite destro e sinistro. Dalle analisi EFA sono state riscontrate differenze significative in tutti i confronti, anche nel confronto tra le due specie. I campioni sembrano però appartenere al medesimo stock. In conclusione si può dire che l’analisi di morfometria classica ha dato dei risultati congrui con quello che ci si aspettava. I risultati dell’analisi EFA invece hanno evidenziato delle differenze significative che dimostrano una superiore potenza discriminante. La particolare sensibilità dell’analisi dei contorni impone un controllo di qualità rigoroso durante l’acquisizione delle forme.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
L’oggetto di studio di questo lavoro, svolto presso l’azienda Vire Automation del gruppo Bucci Industries di Faenza, è una macchina per il packaging di prodotti igienico-sanitari, più precisamente pannolini baby. Dopo una prima indagine di mercato svolta con l’aiuto dei commerciali dell’azienda, si sono ipotizzate una serie di soluzioni tecniche per migliorare il funzionamento e le prestazioni della macchina. Tramite uno strumento detto Casa della qualità si sono evidenziate le soluzioni tecniche che risultano più apprezzate dal mercato e per questo posseggono una maggior priorità di realizzazione. Si è intervenuti su di un gruppo funzionale per lo spostamento orizzontale del prodotto che agisce superiormente rispetto al pianale di processo e sul trasporto pioli che invece agisce per ostacolo tra cilindri di acciaio ed i prodotti. In particolare per il primo si è realizzato un apposito studio delle grandezze cinematiche in gioco e, dopo una progettazione 3D, si sono stimate le coppie motrici richieste dal nuovo asse che è risultato vantaggioso rispetto al precedente. Per il secondo invece, vista l’esigenza di ottenere un gruppo rifasatore che permettesse alla macchina di funzionare correttamente nonostante i ritardi di arrivo dei prodotti dalla linea di produzione, si è realizzata una nuova gestione logica del gruppo per sopperire alla peggior condizione di funzionamento verificabile e si è riprogettato il gruppo per dotarlo delle nuove necessarie caratteristiche.
Resumo:
Questa ricerca mira ad indagare le immagini possibili di una città, nello specifico Rimini, sperimentando un sistema insediativo in cui l'elemento verde e le relazioni sociali e funzionali sono stati elementi fondamentali nella progettazione. L'area di intervento è la stazione di Rimini, per cui si è proposta una riqualificazione urbana capace di innescare flussi e capacità attrattiva, grazie alla scelta di inserire edifici di carattere pubblico, quali un museo, l'accademia delle belle arti, servizi agli universitari, un hotel e del terziario. Le residenze sono immerse nel parco, per godere di un rapporto privilegiato con l'elemento natura. Il lavoro è partito da un'analisi delle caratteristiche di Rimini, la sua forte vocazione turistica e le sue componenti culturali, cercando di rappresentare al meglio gli aspetti e i valori della città.
Resumo:
San Patrignano non rappresenta solo una comunità di recupero, ma anche un'azienda agricola che, al suo interno, vede realizzata l'intera filiera di produzione e lavorazione del latte vaccino. Uno dei prodotti di spicco, di grande importanza per l'economia locale, è certamente lo Squacquerone di Romagna Dop, un formaggio fresco, caratterizzato da particolari parametri chimico-fisici ed organolettici strettamente correlati al territorio d'origine. La ricerca, svoltasi in un periodo di dodici mesi, ha permesso di raccogliere un cospicuo quantitativo di dati, con l'obiettivo di valutare la qualità igienica, la sicurezza e la relazione con la materia prima utilizzata per la caseificazione. Le analisi sono state svolte secondo uno specifico piano di campionamento mensile, che prevedeva sia la determinazione della qualità microbiologica del latte utilizzato, prima e dopo la fase preliminare di pastorizzazione, sia la determinazione dei principali agenti degradativi e patogeni nel prodotto finito. Si sono volute evidenziare eventuali differenze in rapporto al periodo di raccolta del latte ed eventuali ripercussioni sulla qualità finale dello Squacquerone DOP. I risultati testimoniano l'ottima qualità del latte ottenuto dalle bovine presso la stalla San Patrignano, anche in relazione alla stagionalità. A conferma di ciò, la sporadica presenza di batteri degradativi, non in grado di influenzare in modo significativo la shelf life del prodotto Squacquerone, e l'assenza continuativa di batteri patogeni. Inoltre, i dati raccolti, in un'ottica di controllo qualità dell’azienda agricola, supportano l'identificazione dei punti critici del processo di produzione.
Resumo:
Un manuale tecnico non veicola solo contenuti, ma definisce anche il rapporto tra emittente e destinatario all’interno di una relazione commerciale. Il testo deve quindi essere di buona qualità, altrimenti si potrebbero verificare danni economici e di immagine per l’emittente. Nonostante ciò, molte aziende dimostrano scarsa sensibilità al problema della qualità redazionale perché ottenerla significa affrontare investimenti di tempo e risorse. Con questa tesi propongo una modalità di revisione del manuale tecnico che tiene in considerazione esigenze di natura diversa: utilizzando gli strumenti CAT per la revisione è possibile, infatti, migliorare la qualità del manuale riducendo i tempi richiesti dal lavoro, e quindi contenerne i costi. Questa proposta, tuttavia, non è una soluzione definitiva perché la revisione migliora un singolo testo: affinché l’azienda comunichi in modo efficace non si può prescindere da un adeguato percorso di formazione dei redattori. In particolare, in un manuale tecnico la qualità corrisponde a un linguaggio chiaro, semplice e non ambiguo, ben lontano dunque dal burocratese che viene considerato da molti un buono stile e dall’antilingua contro cui già Calvino metteva in guardia. Le competenze non solo linguistiche del traduttore gli permettono di rivelarsi una figura determinante anche per la redazione e la revisione di testi monolingue. Così come tradurre non significa trasferire da una lingua all’altra le parole, ma i concetti, allo stesso modo rendere chiaro, semplice e univoco un manuale non vuol dire solo aumentarne la leggibilità, ma soprattutto mettere il destinatario nelle condizioni di capire i contenuti e di eseguire correttamente le istruzioni nel passaggio dal contesto linguistico a quello fattuale. Anche nella revisione, come nella traduzione, gli strumenti automatici non sostituiscono il professionista, ma gli permettono di finalizzare a uno scopo preciso le sue conoscenze sul funzionamento della lingua e della comunicazione.
Resumo:
La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.
Resumo:
Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.
Resumo:
La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.
Resumo:
I materiali compositi più diffusi sono quelli a matrice polimerica (PMC, Polymer Matrix Composites) con fibre di rinforzo, largamente utilizzati per la loro capacità di conciliare ottima resistenza meccanica con elevata leggerezza. Nel presente elaborato di tesi sono state studiate le caratteristiche meccaniche di materiali compositi a matrice resinosa, epossidica, rinforzati con fibre di carbonio chopped, ovvero fibre spezzate e disposte in modo del tutto casuale all’interno della matrice, mediante analisi microstrutturale e prove di trazione. Viene descritto il processo di produzione delle piastre di materiale composito ottenuto per SMC (Sheet Moulding Compound) da cui sono stati ricavati i provini. Lo studio a livello microstrutturale è stato possibile grazie all’inglobamento nella resina di alcune sezioni dei provini, le cui superfici sono state esaminate al microscopio acquisendo una quantità di immagini tale da permettere la ricostruzione della superficie stessa tramite software ed il calcolo percentuale delle porosità tramite SolidWorks. La caratterizzazione meccanica è stata eseguita utilizzando la macchina per le prove di trazione presente nell’hangar della sede di Forlì della Scuola di Ingegneria e Architettura dell’Università di Bologna: la preparazione dei provini è basata sull’applicazione di tabs di alluminio. I provini in materiale composito sono stati forniti in quattro differenti tipologie riguardanti la pressione a cui sono stati prodotti: 25, 50, 100 e 150 bar. Lo scopo dell’elaborato è stabilire la pressione ottimale di produzione dei provini, a cui il materiale composito mostra le migliori proprietà meccaniche, in particolare la più alta resistenza a carico di trazione. Le prove sono state condotte su provini a tre diverse lunghezze, per diversificare le modalità di stress meccanico. I risultati sono stati poi analizzati per stabilire quale valore di pressione di processo conferisce le migliori caratteristiche meccaniche al materiale.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
I dispositivi mobili, dagli smartphone ai tablet, sono entrati a far parte della nostra quotidianità. Controllando l’infrastruttura delle comunicazioni, rispetto a qualsiasi altro settore, si ha un maggiore accesso a informazioni relative alla geo-localizzazione degli utenti e alle loro interazioni. Questa grande mole di informazioni può aiutare a costruire città intelligenti e sostenibili, che significa modernizzare ed innovare le infrastrutture, migliorare la qualità della vita e soddisfare le esigenze di cittadini, imprese e istituzioni. Vodafone offre soluzioni concrete nel campo dell’info-mobilità consentendo la trasformazione delle nostre città in Smart City. Obiettivo della tesi e del progetto Proactive è cercare di sviluppare strumenti che, a partire da dati provenienti dalla rete mobile Vodafone, consentano di ricavare e di rappresentare su cartografia dati indicanti la presenza dei cittadini in determinati punti d’interesse, il profilo di traffico di determinati segmenti viari e le matrici origine/destinazione. Per fare questo verranno prima raccolti e filtrati i dati della città di Milano e della regione Lombardia provenienti dalla rete mobile Vodafone per poi, in un secondo momento, sviluppare degli algoritmi e delle procedure in PL/SQL che siano in grado di ricevere questo tipo di dato, di analizzarlo ed elaborarlo restituendo i risultati prestabiliti. Questi risultati saranno poi rappresentati su cartografia grazie a QGis e grazie ad una Dashboard aziendale interna di Vodafone. Lo sviluppo delle procedure e la rappresentazione cartografica dei risultati verranno eseguite in ambiente di Test e se i risultati soddisferanno i requisiti di progetto verrà effettuato il porting in ambiente di produzione. Grazie a questo tipo di soluzioni, che forniscono dati in modalità anonima e aggregata in ottemperanza alle normative di privacy, le aziende di trasporto pubblico, ad esempio, potranno essere in grado di gestire il traffico in modo più efficiente.