841 resultados para Vicente Di Grado
Resumo:
La tecnologia della diffusion tensor imaging (DTI) è una tecnica non invasiva, che permette di effettuare una caratterizzazione in vivo di diversi tessuti, è una tecnica consolidata in ambito neurologico e rappresenta una metodica ancora da esplorare ma molto promettente in ambito renale. Questo lavoro di tesi si concentra in primo luogo sulla differenziazione di diverse strutture renali quali, la corteccia e la medulla del rene sano, le cisti del rene affetto dalla malattia policistica autosomica dominante e i carcinomi. La seconda parte del lavoro si concentra sui reni policistici, in quanto è una delle malattie genetiche più comuni e la principale causa di insufficienza renale e non è, ad oggi, stata adeguatamente affrontata in questo genere di studi. Il secondo obiettivo è, quindi, di valutare se la tecnica dell’imaging di diffusione potrebbe essere utile per fornire informazioni sullo stato della malattia e sul grado si avanzamento di essa. Sono stati implementati in Matlab gli algoritmi per la costruzione del tensore di diffusione a partire dalle immagini DWI e per la selezione delle ROI sulle varie regioni di interesse. I risultati ottenuti per l’analisi dei reni policistici dimostrano che per gli intervalli temporali considerati non è possibile correlare il valore di diffusività media del parenchima e lo stadio di avanzamento della malattia, stabilito dai valori di eGFR. Per quanto riguarda i risultati ottenuti dalla differenziazione delle diverse strutture renali la tecnica della diffusion imaging risulta essere potenzialmente in grado di differenziare i diversi tessuti renali e di valutare separatamente la funzionalità dei reni.
Resumo:
La sperimentazione aveva il fine di valutare l’attività antimicrobica di oli essenziali di timo e cannella in hamburger di bovino. In primo luogo è stata fatta una caratterizzazione di questi oli mediante analisi GC-MS-SPME, da cui è emerso che le molecole a maggiore attività antimicrobica (rispettivamente timolo/carvacrolo ed aldeide cinnamica) erano presenti a concentrazioni piuttosto basse. Successivamente sono state valutate MIC e MBC nei confronti di microrganismi patogeni di interesse alimentare. Infine, tali oli sono stati incapsulati in chitosano per valutare un eventuale effetto sinergico e favorire un rilascio graduale degli oli. Il processo di incapsulazione ha mostrato una efficienza piuttosto bassa (solo il 25% dell’olio aggiunto veniva effettivamente incapsulato), per cui non è stato possibile utilizzare nanoparticelle “caricate” con quantità di olio tali da inibire significativamente lo sviluppo microbico in hamburger di carne bovina. Infatti, l’effetto sinergico chitosano/olio essenziale è stato in grado di ridurre solo lievemente il carico di enterobatteri durante la conservazione refrigerata, soprattutto nei campioni confezionati in atmosfera modificata. Una prova effettuata utilizzando i due oli in forma libera ad elevata concentrazione (1000 mg/kg), la cannella si è dimostrata molto più efficace del timo, riducendo il carico cellulare di enterobatteri a fine shelf-life, con effetto più evidente nei campioni di hamburger confezionati in atmosfera modificata (riduzione di un ciclo logaritmico). Inoltre, essa è risultata in grado di ridurre lievemente lo sviluppo di lieviti e funghi. Concludendo, gli oli essenziali usati in questa sperimentazione, poiché caratterizzati da una bassa concentrazione di molecole ad elevata attività antimicrobica (timolo/carvacrolo per il timo, aldeide cinnamica per la cannella), non sono stati in grado di prolungare in modo significativo la shelf-life di hamburger di bovino, nemmeno se incapsulati in chitosano.
Resumo:
I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.
Resumo:
Questo lavoro di tesi è stato finalizzato allo studio dell’applicabilità e dell’efficacia di una modalità di confezionamento dell’olio extra vergine di oliva (EVO) in grado di raggiungere due obiettivi: - il prolungamento della shelf-life dell’olio d’oliva grazie ad un’azione protettiva del packaging dalla radiazione luminosa; - l’ottenimento di un’estetica accattivante che consenta al consumatore di apprezzare colore e livello del prodotto contenuto. È stata, quindi, testata l’efficacia di un film protettivo trasparente, termoretraibile, stampabile e con effetto barriera contro le radiazioni UV applicato su bottiglie in vetro trasparente, confrontando i risultati ottenuti con quelli raccolti per campioni conservati in bottiglie in vetro scuro e trasparente. Per la realizzazione di questo studio sono stati utilizzati due EVO monovarietali e per ognuno di questi sono state confrontate tre tipologie di confezionamento: vetro scuro, vetro trasparente rivestito con pellicola, vetro trasparente. Per simulare un processo di “invecchiamento accelerato” le bottiglie sono state poste in un termostato (20 °C) all’interno del quale sono state istallate delle lampade in grado di illuminare le bottiglie in continuo e i campioni erano monitorati ad intervalli regolari (5, 10 e 15 settimane). Le determinazioni analitiche svolte (titrimetriche, spettrofotometriche, cromatografiche e sensoriali) hanno riguardato i principali parametri quali-quantitativi correlati allo stato idrolitico (acidità libera, digliceridi) ed ossidativo (numero di perossidi) degli oli d’oliva, nonché relativi alle molecole antiossidanti (contenuto in fenoli totali e tocoferoli) ed agli attributi sensoriali. I risultati ottenuti da queste prove esplorative hanno evidenziato come l’applicazione di sleeve additivate con anti-UV su bottiglie in vetro trasparente possa costituire una valida modalità di confezionamento dell’olio EVO, anche se saranno necessarie ulteriori conferme ed approfondimenti.
Resumo:
Lo scopo di questa tesi è lo sviluppo di una protesi valvolare sensorizzata per la valutazione e il monitoraggio dei parametri funzionali della valvola e di conseguenza la realizzazione un prototipo di PHV (Prosthetic Heart Valve) che integri all’interno delle protesi valvolari in commercio una tecnologia utile alla realizzazione di queste specifiche. Il segnale di impedenza intravalvolare (IVI) è ottenuto grazie ad un sistema di elettrodi utili alla generazione di un campo elettrico locale e alla successiva registrazione della differenza di potenziale. Il lavoro sperimentale è stato suddiviso in due parti: una prima parte deputata alla scelta della posizione ottimale degli elettrodi rispetto ai lembi, al piano e all’anello valvolare, al fine di determinare due prototipi, ed una seconda parte in cui sono stati testati i prototipi in una situazione più fisiologica, cioè in un tratto di aorta bovina, ed è stata simulata una dinamica valvolare alterata. Il maggior segnale di impedenza riscontrato è stato ottenuto ponendo gli elettrodi ortogonalmente al cardine dei lembi valvolari e sovrapponendo elettrodo di eccitazione e ricezione al fine di ottenere un campo elettrico costante e ricezione puntuale della variazione del campo. Infine è stato riscontrato che il segnale di impedenza intravalvolare è in grado di riflettere alterazioni simulate dei lembi.
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.
Resumo:
La nascita della Internet of Things, come conseguenza dell'aumento della capacità di calcolo e adozione di connettività in nuovi dispositivi, ha permesso l'apporto di nuove tecnologie negli oggetti di uso quotidiano e ha cambiano il modo in cui le persone utilizzano e interagiscono con questi oggetti. La Home Automation, da sempre orientata al controllo locale e remoto di apparecchiature domestiche, non ha mai raggiunto una grande diffusione per colpa del costo elevato, una controproducente chiusura rispetto ad altri sistemi e una certa difficoltà nella sua programmazione da parte dei possibili utenti. Le possibilità offerte dalla IoT e i limiti della Home Automation hanno suggerito lo sviluppo di un sistema in grado si superare queste limitazioni sfruttando le tecnologie più adatte a integrare Smart Object e sistemi, gli uni con gli altri, in maniera semplice e rapida. Il progetto e lo sviluppo di una soluzione reale di Home Automation basata su un impianto domotico commerciale ha permesso di dimostrare come strumenti opensource e tecnologie orientate alla IoT consentano, se opportunamente integrate, di migliorare sia la fruibilità dei sistemi domotici, attraverso la maggiore apertura verso altri sistemi, sia l'interazione con l'utente che sarà in grado di creare in modo semplice e diretto scenari di utilizzo sempre nuovi.
Resumo:
La presente tesi discute la realizzazione di un carrello appendice sul quale possa essere montato un aerogeneratore della potenza di circa 8500 W facile da trasportare ed installare. Si desidera progettare una macchina che non necessiti di fondamenta e non richieda particolari procedure burocratiche per l’istallazione permettendo così un investimento iniziale ridotto. Il progetto ha il vantaggio di produrre energia con venti di bassa intensità (3 m/s), livelli di rumore contenuti da considerarsi trascurabili e un impatto visivo ambientale accettabile. Uno degli obiettivi è di massimizzare le prestazioni della turbina eolica ed essere in grado di competere sul mercato attuale, installando parallelamente un impianto fotovoltaico per dare una continuità maggiore all'energia generata. Queste tipologie di macchine potranno diffondersi nei settori dell’agricoltura, del turismo e in aree specifiche, ad esempio aree protette, dove l’eolico di grandi dimensioni ha difficoltà di inserimento. L’aerogeneratore potrà alimentare utenze come ad esempio sistemi di telecomunicazioni, stazioni di pompaggio, utenze rurali site in luoghi isolati, ed è possibile lo spostamento del mezzo anche in zone altamente sconnesse grazie al telaio rinforzato e all'inserimento di freni e sospensioni. La produzione di energia elettrica proveniente da fonti rinnovabili viene promossa dal decreto legislativo n. 387 del 29/12/2003, che dà indicazioni affinché tutti gli impianti con potenza non superiore ai 20000W abbiano la possibilità di connettersi alla rete con la modalità di “scambio sul posto”. Questo servizio permette di ridurre l’esborso sostenuto per la bolletta relativamente alle quote dell’energia consumata e di rientrare dell’investimento iniziale; infatti la società distributrice dell’energia elettrica effettuerà ogni anno un conguaglio tra l’energia prelevata e quella immessa in rete dal cliente.
Resumo:
In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.
Resumo:
Lo scopo del lavoro svolto e quello di realizzare un sistema di controllo Proporzionale-Integrativo-Derivativo (PID) della temperatura all'interno di un fornetto in una camera a vuoto. Il sistema deve essere in grado di eseguire rampe di temperatura con differenti rapidita di variazione, in vista di un suo futuro impiego nello studio del Desorbimento Termico di diversi materiali. Nella prima parte della tesi, si esaminano le premesse teoriche ai controlli Proporzionali-Integrativi-Derivativi, e sono esposti i metodi di Ziegler-Nichols e di Tyreus-Luyben per ricavare le costanti del PID. Nella seconda parte si descrivono il sistema fisico in esame e l'hardware messo a punto per il sistema di controllo, gestito interfacciandolo con una scheda Arduino. Nella terza parte viene invece trattato il software realizzato con LabVIEW per gestire e controllare l'apparato. Nella quarta parte sono infine mostrati i risultati sperimentali ottenuti, e le conclusioni tratte al termine del lavoro.
Resumo:
La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.
Resumo:
Questo lavoro di tesi si propone di realizzare un sistema in grado non solo di gestire la similarità tra media di stesso tipo, in modo tale da essere al pari per potenzialità in catalogazione e ricerca dei sistemi esistenti, ma di introdurre anche il concetto di similarità tra documenti, i quali contengono media di diverso tipo. Anche se esistono già DBMS in grado di gestire tipi di media complessi, nessuno ha un modello in grado di gestire la compresenza di più tipi di dato efficientemente. Per realizzare un sistema multimediale che sia in grado di gestire non solo la similarità tra media compatibili per tipo ma in generale la ricerca tra documenti si è deciso di utilizzare sistemi per media specifici già esistenti e di integrarli in modo da farli cooperare. A tale proposito si è deciso inizialmente di creare un sistema in grado di gestire documenti che possano contenere inizialmente parti testuali, immagini, video e serie temporali. E’ chiaro intuire come le differenze tra i singoli sistemi (e tra le singole tipologie di dati) rendano quasi impossibile il confronto tra media di tipo diverso esaminandone solamente il contenuto. Per questo un sistema multimediale come quello proposto non potrà effettuare ricerca per contenuto tra media differenti (a parte tra immagini e video in cui può essere possibile confrontare l’immagine con gli screenshot che compongono un video) ma si baserà principalmente sul confronto semantico tra media di tipo diverso e lo combinerà invece con ricerche per metadati e contenuto tra media dello stesso tipo. In questa tesi verranno analizzate le tecnologie utilizzate, le modifiche apportate ai framework esistenti e le novità introdotte per realizzare il sistema generale e in seguito verrà proposta la realizzazione due applicazioni su casi reali per dimostrare l’efficacia di tale sistema.
Resumo:
Il termine “sovrastruttura stradale” identifica l’insieme di strati legati e non legati che, partendo dal piano viabile, raggiungono la sommità del rilevato o il piano di posa, nelle sezioni in trincea. Al fine di fornire agli utenti stradali sovrastrutture in grado di sviluppare prestazioni ottimali per lunghi periodi, è necessario che esse siano manutenute utilizzando i metodi via via più consoni al tipo di dissesto che si verifica. Attraverso numerose ricerche è emerso come uno dei fattori di maggiore influenza per il degrado stradale sia da attribuire all’efficacia del collegamento fra i diversi elementi di una sovrastruttura. Gli stati tensionali che si creano all’interfaccia fra due strati adiacenti, se non contrastati adeguatamente, possono provocare effetti dannosi come l’insorgere di fessurazioni ed il distacco fra gli strati. Per contrastare tali fenomeni, si è sviluppata la tecnica di inserire uno strato di rinforzo all’interno della sovrastruttura costituito da materiali metallici o sintetici anche nell’ambito delle costruzioni stradali. La ricerca effettuata in questo elaborato prevede lo studio del collegamento fra gli strati superficiali di una sovrastruttura flessibile rinforzata con geogriglie in fibra di vetro, mediante prove sperimentali condotte con apparecchiatura Leutner. Tale metodologia di prova è utilizzata per valutare la resistenza a taglio all’interfaccia fra i vari strati che compongono la pavimentazione. I campioni di prova sono stati estratti tramite carotatura da una pavimentazione esistente. Come ulteriore indagine, con gli stessi conglomerati sono stati creati nuovi campioni doppio strato mediante compattazione in pressa giratoria. Si è poi ripetuta la prova Leutner, per valutare la possibile variazione dei risultati ottenuti in precedenza e, in tale caso, studiare l’influenza della compattazione sulla resistenza a taglio presente all’interfaccia fra i due strati.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.