778 resultados para Algebre monounarie, ordine, classificazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato presenta le opere della giovane scrittrice portoghese Ana Filipa Batista, blogger e scrittrice portoghese di diciassette anni, che ha conosciuto il suo debutto editoriale a soli undici anni. L’elaborato è articolato in tre capitoli, nei quali si ripercorre in ordine cronologico la carriera della giovane scrittrice, proponendo un’analisi delle sue opere dal punto di vista dei temi, dello stile, del linguaggio. Ogni capitolo è corredato da opportune traduzioni dal portoghese in italiano per poter guidare meglio il lettore attraverso il percorso suggerito. Ogni citazione è accompagnata dalla mia traduzione in nota o a fronte, mentre nel caso di testi particolarmente lunghi, si troverà la mia traduzione nel corpo della tesi e la versione originale portoghese in appendice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato finale ha l’obiettivo di effettuare una ricerca, un’analisi e una catalogazione in glossari dei germanismi all’interno della lingua slovacca, la quale presenta all’incirca tremila termini provenienti dalle lingue germano-tedesche. Sulla base del lavoro svolto precedentemente da numerosi linguisti slovacchi (tra cui Petrovič, Žilová, Adamcová, Dolník, Decsy, Habovštiak, Habovštiaková, Žigo, Múcsková, Blanár, Doruľa, Palkovič, Papsonová, Kozmová) e altri linguisti germanofoni e ungheresi (tra cui Ziegler, Greule, Meier, Toth, Rudolf, Muhr) è stato raccolto il materiale fondamentale per la stesura della presente tesi di laurea. Tuttavia l’opera che getta le basi per l’analisi è Sprachontakte Deutsch - Tschechisch - Slowakisch dello slavista e professore presso l’Università di Vienna Stephan Michael Newerkla, il quale ha stilato un vero e proprio dizionario dei germanismi presenti nello slovacco e nel ceco suddividendoli in categorie temporali, a cominciare dal gotico per finire con il nuovo tedesco standard. All’interno della sua opera l’autore austriaco ha inserito anche le parole che solo presumibilmente o secondo alcuni precedenti linguisti avrebbero origine germanica e i termini la cui presunta provenienza dal tedesco è stata riconosciuta come erronea; nel presente elaborato sono state prese in considerazione invece solo le parole di certa origine tedesca. Le parole sono state selezionate e suddivise in quattordici categorie semantico-lessicali: 1. Industria mineraria, utensili, numismatica e minerali, 2. Edifici, locali e arredamento, 3. Tessuti e stoffe, 4. Strumenti musicali, 5. Vestiti, 6. Alimentari e consumo, 7. Termini bellici, 8. Persone e funzioni, 9. Piante ed elementi chimici, 10. Religione e costumi, 11. Animali e le loro parti del corpo, 12. Verbi, 13. Aggettivi, 14. Parole rimanenti In ogni singolo glossario vi sono tre colonne: nella prima si trova il termine slovacco accompagnato dalla sua definizione, nella seconda vi è la traduzione della parola in italiano e nella terza il significato e la spiegazione dell’origine in tedesco. Al presente elaborato viene allegato un appendice finale in cui sono riportati in ordine alfabetico tutti i germanismi analizzati assieme a quelli non più in uso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di individuare per la città di Cavezzo ed il suo centro urbano, colpito dal sisma di maggio 2012, le strategie per la ricostruzione e la definizione delle proprie forme urbane. In particolare, nel sistema delle piazze urbane del centro storico, ci si concentra sulla ridefinizione di Piazza Martiri della Libertà, oggi piazza del mercato che si presenta come un grande parcheggio asfaltato e privo di identità, sulla quale si affaccerà la nuova sede comunale ospitata nelle ex scuole elementari. Questo avviene tramite il progetto di un portico, elemento unificatore di un contesto frammentato e generatore di un nuovo ordine spaziale. Il primo capitolo di questo volume raccoglie alcune informazioni relative al territorio e alla storia della città di Cavezzo, nel capitolo secondo si affronta il tema del terremoto mentre nel terzo capitolo si ripercorre una sintesi dell'ampio tema della piazza correlata da casi studio. Infine gli ultimi capitoli affrontano i temi progettuali del ridisegno del centro di Cavezzo e della riqualificazione di piazza Martiri della Libertà con il progetto di un edificio polifunzionale che circonda una piazza coperta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi illustra il teorema di decomposizione delle misure e come questo viene applicato alle trasformazioni che conservano la misura. Dopo aver dato le definizioni di σ-algebra e di misura ed aver enunciato alcuni teoremi di teoria della misura, si introducono due differenti concetti di separabilità: quello di separabilità stretta e quello di separabilità, collegati mediante un lemma. Si descrivono poi la funzione di densità relativa e le relative proprietà e, dopo aver definito il concetto di somma diretta di spazi di misura, si dimostra il teorema di decomposizione delle misure, che permette sotto certe ipotesi di esprimere uno spazio di misura come somma diretta di spazi di misura. Infine, dopo aver spiegato cosa significa che una trasformazione conserva la misura e che è ergodica, si dimostra il teorema di Von Neumann, per il quale le trasformazioni che conservano la misura risultano decomponibili in parti ergodiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato affronta la definizione, il calcolo e l’espressione del rischio chimico in un ambiente di lavoro avendo, come oggetto di studio, un’azienda produttrice di fibre tessili e pelli sintetiche a partire da resine di Polivinilcloruro (PVC). Viene esposta la mappatura schematica degli ambienti di lavoro e la classificazione dei rischi presenti in "irrilevanti per la salute" o "non irrilevanti per la salute", come previsto dal modello di valutazione del rischio “Movarisc”. Sono descritte le successive indagini ambientali volte a verificare le concentrazioni di inquinanti nelle zone più critiche ed, infine, gli interventi migliorativi sia sulla linea di produzione che nelle procedure di lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I movimenti lenti delle colate in terra sono una caratteristica geomorfologica comune nell’Appennino settentrionale e sono uno dei principali agenti di modellazione del paesaggio. Spesso case e piccoli centri abitati sorgono in zone affette da questo tipo di movimento franoso e di conseguenza subiscono danni causati da piccoli spostamenti. In questo lavoro di Tesi vengono presentati i risultati ottenuti dall’interferometria radar ad apertura sintetica (InSAR) mediante elaborazione tramite StaMPS (Stanford Method of Persistent Scatterers), utilizzando la tecnica avanzata Small Baseline Subset (Berardino et al., 2002). Questo metodo informatico è applicato alle acquisizioni rilevate dai satelliti Envisat e COSMO-SkyMed in orbita ascendente e discendente, ottenendo una copertura di dati che va dal 2004 al 2015, oltre ad un rilevamento geologico-geomorfologico in dettaglio eseguito nell’area di studio. Questa tecnica di telerilevamento è estremamente efficace per il monitoraggio dei fenomeni di deformazione millimetrica che persistono sulla superficie terrestre, basata sull'impiego di serie temporali d’immagini radar satellitari (Ferretti et al., 2000). Lo studio è stato realizzato nel paese di Gaggio Montano nell’Appennino bolognese. In questa zona sono stati identificati diversi corpi di frana che si muovono con deformazioni costanti durante il tempo di investigazione e grazie ai risultati ottenuti dai satelliti è possibile confrontare tale risultato. Gli spostamenti misurati con il metodo InSAR sono dello stesso ordine di grandezza dei movimenti registrati dai sondaggi inclinometrici. Le probabili cause dell’instabilità di versante a Gaggio Montano sono di natura antropica, in quanto alti tassi di deformazione sono presenti nelle zone dove sorgono case di recente costruzione e complessi industriali. Un’altra plausibile spiegazione potrebbe essere data dalla ricarica costante d’acqua, proveniente dagli strati dei Flysch verso l’interno del complesso caotico sottostante, tale dinamica causa un aumento della pressione dell’acqua nelle argille e di conseguenza genera condizioni d’instabilità sul versante. Inoltre, i depositi franosi rilevati nell’area di studio non mostrano nessun tipo di variazione dovuta ad influenze idrologiche. Per questo motivo le serie temporali analizzare tendo ad essere abbastanza lineari e costanti nel tempo, non essendo influenzate da cicli stagionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tesi incentrata sull'impatto che la riduzione del lead time di consegna, come strategia commerciale, ha sulla supply chain della Neri SpA. A tale scopo è stato sviluppato un modello basato sulla matrice di Kraljic per la classificazione dei fornitori. La matrice è stata adattata alle esigenze aziendali ed è stato sfruttato il metodo di analisi multicriterio AHP per determinare i pesi dei parametri che compongono la dimensione più complessa della matrice. Sono stati sviluppati i diagrammi di Gantt partendo dai lead time presenti in distinta base. Da questi si sono individuati i percorsi temporalmente critici e dalla loro analisi le filiere critiche per lo sviluppo delle nuove potenzialità commerciali. Le filiere critiche sono state poi analizzate nel loro complesso, andando a verificare il ruolo dei singoli fornitori sfruttando come base di analisi la classificazione effettuata con la matrice di Kraljic. Dall'analisi delle filiere e dal confronto con la funzione commerciale sono state ipotizzate strategie per la riduzione dei lead time e il raggiungimento delle nuove potenzialità commerciali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.