999 resultados para Macchine wellness, Profili di forza, Treadmill
Resumo:
Il seguente lavoro di tesi è finalizzato alla realizzazione dell’elettronica di controllo per una vettura prototipo, Nel Capitolo 1 della tesi viene descritto più nel dettaglio il progetto Formula SAE, introducendo gli aspetti peculiari della competizione; successivamente segue una breve descrizione del team UniBo Motorsport. Il Capitolo 2 descrive l’elettronica implementata nella stagione 2013 evidenziandone i punti di forza e le debolezze al fine di poter trarre delle conclusioni per comprendere la direzione intrapresa con questo lavoro di tesi. Nel Capitolo 3 viene presentata la soluzione proposta,motivandone le scelte e la necessità di suddividere il lavoro in più unità distinte, mantenendo le peculiarità tecniche del già eccellente lavoro effettuato nel corso degli anni da chi mi ha preceduto ed aggiungendo quelle funzionalità che permettono di mantenere la soluzione in una posizione dominante nel panorama della Formula Student. La progettazione dell’hardware che compone la soluzione proposta è descritta nel Capitolo 4, introducendo dapprima la metodologia adottata per la progettazione partendo dalle specifiche fino ad arrivare al prodotto finito ed in seguito ne viene descritta l’applicazione ad ogni unità oggetto del lavoro. Sono state progettate da zero tre unità: una centralina di controllo motore (ECU), una di controllo veicolo (VCU) ed un controller lambda per la gestione di sonde UEGO. Un aiuto fondamentale nella progettazione di queste tre unità è stato dato da Alma Automotive, azienda che fin dal principio ha supportato, anche economicamente, le varie evoluzioni dell’hardware e del software della vettura. Infine viene descritto nel capitolo 5 il software che verrà eseguito sulle unità di controllo, ponendo particolare risalto al lavoro di adattamento che si è reso necessario per riutilizzare il software in uso negli anni precedenti.
Resumo:
Le Nubi di Magellano sono una coppia di galassie irregolari molto vicine alla nostra. La loro vicinanza le ha rese target ideali per molti studi, tra cui ricerche sulla formazione ed evoluzione di popolazioni stellari. Da questi studi è emerso che una delle principali differenze tra le Nubi e la MW sta nella popolazione di ammassi globulari: circa il 20% degli ammassi di LMC, infatti, appartiene a una coppia. Si tratta di distinguere tra coppie reali o apparenti, cercando sistemi legati. Questo può essere fatto per via spettrometrica (attraverso velocità radiali o composizione chimica) e/o fotometrica (attraverso stima dell'età e profili di densità). In questo lavoro vengono analizzate fotometricamente tre coppie di LMC, al fine di determinarne la natura per migliorare le statistiche esistenti e porre dei constrain sulle conoscenze a disposizione.
Resumo:
Con l'aumento del numero di sensori e ricevitori presenti sui dispositivi mobili attuali, è possibile lo sviluppo di nuove applicazioni in grado di fornire dati utili sul contesto in cui si trova un utente in un determinato momento. In questa tesi viene descritta la realizzazione di un servizio per dispositivi Android in grado di riconoscere il tipo di mobilità dell'utente. La motivazione principale di questo progetto è stata la scarsità di soluzioni specifiche per questo tipo di riconoscimento contestuale. Sono state quindi realizzate una libreria Java e un'applicazione Android in grado di fornire tale funzionalità. La tecnica impiegata per il riconoscimento è derivata da una ricerca dei dottori Luca Bedogni e Marco Di Felice e del professore Luciano Bononi, dell'Università di Bologna. Tale tecnica sfrutta le misurazioni di accelerometro e giroscopio del dispositivo per rilevare pattern di movimento e associarli ai vari tipi di mobilità dell'utente. Per mostrare un possibile impiego di questo servizio, è stata realizzata un'applicazione che sfrutta i dati forniti dal servizio di riconoscimento per la gestione dello stato di alcune funzionalità del dispositivo. Inoltre, è stata effettuata una analisi statistica della precisione effettiva di questo sistema di riconoscimento, per evidenziarne i punti di forza e i limiti rispetto alle soluzioni già esistenti. E' stato osservato che il consumo energetico di questo sistema è minore rispetto ad applicazioni basate su servizi di geolocalizzazione, e che la sua precisione è accettabile rispetto ad altre soluzioni già esistenti.
Resumo:
La tesi si propone l’obiettivo di indagare le modalità di interazione tra conoscenze tecnico-scientifiche e dato normativo, a partire dallo studio delle c.d. norme tecniche, ossia le norme, dotate di forza giuridica o meno, elaborate sulla base di conoscenze tecnico-scientifiche. La ricerca analizza diversi settori dell’ordinamento, accomunati da un’elevata influenza di saperi tecnici e al tempo stesso da un’indubbia rilevanza dal punto di vista costituzionale (la disciplina delle sperimentazioni cliniche dei farmaci, quella delle emissioni inquinanti di origine industriale e quella relativa agli standard di sicurezza dei prodotti), individuando quelle che al loro interno si possono considerare norme tecniche e mettendone in luce sia i profili formali (in quali atti-fonte sono contenute, quale natura giuridica presentano) che il procedimento di formazione, con particolare attenzione ai soggetti che vi prendono parte. Si propone quindi una sistematizzazione degli elementi emersi dall’indagine a partire da due diverse prospettive: in primo luogo tali dati vengono analizzati dal punto di vista dogmatico, individuando i diversi meccanismi di ingresso del dato tecnico-scientifico nel tessuto normativo (incorporazione nella norma giuridica, impiego di clausole generali, rinvio a norme extra-giuridiche), al fine di mettere in luce eventuali profili problematici per quanto riguarda il sistema delle fonti. La seconda prospettiva prende invece quale punto di riferimento il “centro di elaborazione sostanziale” delle norme considerate, al fine di evidenziarne i diversi fattori di legittimazione: a partire da esigenze di armonizzazione della disciplina e dall’assunto della neutralità delle conoscenze tecnico-scientifiche rispetto agli interessi coinvolti, l’elaborazione delle norme tecniche vede infatti un significativo ripensamento degli equilibri non solo fra attori pubblici e privati, ma anche tra legittimazione politica e legittimazione “tecnica” della scelta normativa. A tali aspetti è dedicata la parte conclusiva del lavoro, in particolare per quanto riguarda la conformità rispetto al disegno costituzionale.
Resumo:
La ricerca sulla comunicazione e gestione multilingue della conoscenza in azienda si è sinora concentrata sulle multinazionali o PMI in fase di globalizzazione. La presente ricerca riguarda invece le PMI in zone storicamente multilingui al fine di studiare se l’abitudine all’uso di lingue diverse sul mercato locale possa rappresentare un vantaggio competitivo. La tesi illustra una ricerca multimetodo condotta nel 2012-2013 in Alto Adige/Südtirol. Il dataset consiste in 443 risposte valide a un questionario online e 23 interviste con manager e imprenditori locali. Le domande miravano a capire come le aziende altoatesine affrontino la sfida del multilinguismo, con particolare attenzione ai seguenti ambiti: comunicazione multilingue, documentazione, traduzione e terminologia. I risultati delineano un quadro generale delle strategie di multilinguismo applicate in Alto Adige, sottolineandone punti di forza e punti deboli. Nonostante la presenza di personale multilingue infatti il potenziale vantaggio competitivo che ne deriva non è sfruttato appieno: le aziende si rivolgono ai mercati in cui si parla la loro stessa lingua (le imprese a conduzione italiana al mercato nazionale, quelle di lingua tedesca ad Austria e Germania). La comunicazione interna è multilingue solo nei casi in sia imprescindibile. Le “traduzioni fai-da-te” offrono l’illusione di gestire lingue diverse, ma il livello qualitativo rimane limitato. I testi sono sovente tradotti da personale interno privo di competenze specifiche. Anche nella cooperazione con i traduttori esterni si evidenza la mancata capacità di ottenere il massimo profitto dagli investimenti. La tesi propone delle raccomandazioni pratiche volte a ottimizzare i processi attuali e massimizzare la resa delle risorse disponibili per superare la sfida della gestione e comunicazione multilingue. Le raccomandazioni non richiedono investimenti economici di rilievo e sono facilmente trasferibili anche ad altre regioni multilingui/di confine, come ad altre PMI che impiegano personale plurilingue. Possono dunque risultare utili per un elevato numero di imprese.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
Nella tesi, dopo un'introduzione di carattere generale sull'endoscopia digestiva, vengono analizzate le innovazioni tecnologiche che permettono il miglioramento ed il potenziamento delle immagini endoscopiche tramite elaborazione real-time, al fine di rilevare le lesioni non visibili con la luce bianca. L'elaborato analizza il flusso di lavoro del reparto, preso in carico dal sistema informativo di endoscopia. Lo scambio di informazioni tra i diversi sistemi informativi deve avvenire utilizzando gli standard HL7 e DICOM, secondo le specifiche dettate dai profili di integrazione IHE. Nella parte finale del trattato è descritta l'architettura del sistema informativo di endoscopia e sono esposte le specifiche di integrazione informativa.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
Lo sbrinamento per le pompe di calore ne limita fortemente l'uso. In questa tesi viene introdotto un concetto innovativo ad altissimo rendimento.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
La galleria del vento "Wintaer" (WINd Tunnel itAER) è una piccola galleria subsonica con flusso incomprimibile utilizzata per scopi didattici, dotata di ventola assiale "Varofoil" a passo variabile per la regolazione della velocità del flusso. Lo scopo di questo elaborato è analizzare la qualità del flusso della galleria al fine di determinare le prestazioni del sistema ed alcune proprietà fondamentali, ovvero l'uniformità spaziale del flusso attraverso l'acquisizione di profili di velocità e l'intensità di turbolenza. Dalla conduzione delle prove sperimentali è emerso che la galleria permette il raggiungimento di un range di velocità compreso tra i 16 m/s e i 43 m/s, ha poca uniformità spaziale e presenta alti livelli di turbolenza. Per quanto riguarda il range di velocità si sono riscontrate problematiche relative all'impossibilità di raggiungere le basse velocità (fino a 7 m/s) a causa, molto probabilmente, di blocchi meccanici che limitano l'intervallo di angoli di calettamento (e quindi il passo) delle pale della ventola, ed è quindi necessario l'intervento della ditta per effettuare un'operazione di revisione della ventola. Relativamente ai profili di velocità, acquisiti con tubo di Pitot, e all'intensità di turbolenza, acquisita con anemometro a filo caldo, è emerso che i risultati sono stati disturbati da errori introdotti a causa dell'instabilità termica della galleria, ovvero un aumento progressivo di temperatura nell'impianto. Tale instabilità può essere risolta rimettendo in funzione l'unità di scambio di calore di cui la galleria è equipaggiata. L'attendibilità dei risultati ottenuti è quindi condizionata dall'instabilità termica, dunque, per una più preciso studio della qualità del flusso è necessario effettuare le prove sperimentali in condizioni di stabilità termica, la quale sarà essa stessa oggetto di analisi una volta rimesso in funzione il sistema di raffreddamento. Infine sono proposte soluzioni per il miglioramento della geometria dell'impianto, poco efficiente, in particolare per quanto riguarda i raddrizzatori di filetti fluidi (honeycombs) e il raccordo tra convergente e camera di prova, per il passaggio dalla sezione circolare del convergente a quella rettangolare della camera di prova. Si suggerisce lo spostamento di tale raccordo a monte della camera di calma, l'adozione di un convergente a sezione rettangolare e di una camera di calma a sezione rettangolare con honeycombs esagonali e l'aggiunta di reti per la diminuzione della turbolenza del flusso.
Resumo:
Il lavoro di questa tesi ha previsto l'acquisizione e l'elaborazione di dati geofisici al fine di determinare la risposta sismica di tre siti della Rete Accelerometrica Nazionale (RAN), collocandosi all'interno del progetto sismologico S2-2014 Constraining Observations into Seismic Hazard gestito dal Dipartimento di Protezione Civile Nazionale e dall’Istituto Nazionale di Geofisica e di Vulcanologia. Tale necessità nasce dal fatto che il più delle volte le informazioni per la corretta caratterizzazione geofisica dei siti ospitanti le stazioni accelerometriche risultano essere insufficienti, rendendo così i dati acquisiti non idonei per l'utilizzo in sede di calcolo delle leggi di attenuazione dalle quali successivamente vengono derivate le mappe di pericolosità sismica a livello nazionale e locale. L'obbiettivo di questo lavoro di tesi è stato quello di determinare l'eventuale presenza di effetti di sito o effetti di interazione suolo-struttura, per tre stazioni ubicate in Friuli-Venezia Giulia (codici stazioni MAI, TLM1 e BRC), capaci di amplificare il moto del terreno nella parte di suolo compresa fra il bedrock sismico (inteso come strato che non amplifica) e il piano campagna. Le principali tecniche utilizzate sono le seguenti: HVSR ossia rapporto spettrale della componente orizzontale su quella verticale da misure di rumore ambientale acquisite e EHV ovvero rapporto spettrale della componente orizzontale su verticale da registrazione di terremoti scaricate dal database accelerometrico italiano ITACA. I risultati delle due tecniche sono stati poi confrontati al fine di verificare un'eventuale congruenza, portando alle seguenti conclusioni. La caratterizzazione della stazione TLM1 ha portato alla importante conclusione che il sito non è idoneo per l’acquisizione di dati accelerometrici da utilizzare per il calcolo di leggi predittive o di attenuazione. La stazione accelerometrica è ospitata all’interno di un box in lamiera su una collina nel comune di Verzegnis (UD). Il problema principale che riguarda questo sito è la vicinanza della diga Ambiesta e del relativo invaso. La stazione di BRC è collocata all’interno di una cabina di trasformazione dell’ENEL sul lato destro del torrente Cellina, al suo ingresso nel lago di Barcis (PN). Le condizioni topografiche della zona, molto impervie, non consentono la corretta acquisizione dei dati. Un ulteriore fattore di disturbo è dato dall’interazione suolo-struttura, causata dalla cabina ENEL in cui è alloggiata la strumentazione. La caratterizzazione della stazione MAI collocata all'interno di una cabina ENEL nel centro del comune di Majano (UD) ha portato alla conclusione che questa è l'unica delle tre stazioni considerate capace di acquisire dati utilizzabili per il processo di validazione per le stime di pericolosità sismica. Questo perché le condizioni topografiche dell’area, pianura con stratificazione 1D, hanno permesso di sfruttare a pieno le potenzialità delle metodologie utilizzate, consentendo anche la ricostruzione di profili di velocità delle onde di taglio S con i quali è stata assegnata la categoria C del suolo previsto dall'approccio semplificato presente nelle NTC08.
Resumo:
Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.
Resumo:
L’analisi del fenomeno di Hump relativo ai motori di piccola scala è l’oggetto di studio di questo elaborato di tesi. Il primo step prevede l’introduzione e la descrizione dei possibili fattori che influenzano l’andamento del profilo di spinta dei motori a razzo, tra cui l’orientazione del particolato immerso nel propellente, il meccanismo di segregazione particellare e la separazione tra la fase liquida e quella solida. Ci si concentra in dettaglio sui primi due termini, dei quali si analizzano le conseguenze in relazione al processo produttivo, cioè sul processo di punzonatura e di colaggio, di un motore BARIA. Attraverso questa analisi, riferendosi ai dati teorici relativi alle variazioni sul rateo di combustione, si imposta l’orientamento dei grani come principale causa dell’effetto Hump per il processo di colaggio, mentre la segregazione particellare in riferimento al processo di punzonatura. Il passo finale consiste nel verificare la coerenza tra i profili di pressione provenienti da dati sperimentali (AVIO S.p.a.) e quelli ottenuti attraverso i codici di calcolo implementati.
Resumo:
L’obiettivo di questo studio è analizzare in che misura e con quali modalità le società di un mercato ricco ed importante come quello della National Basketball Association stiano sfruttando i canali messi a disposizione dal Web 2.0 e dai cosiddetti nuovi media. Il progetto si propone quindi di rispondere ai seguenti tre quesiti di ricerca: 1 Quali sono gli strumenti attualmente a disposizione delle società NBA per promuovere il loro “prodotto” relativamente all’utilizzo delle tecnologie del Web 2.0 e dei Social Media? 2 Quali vantaggi e quali cambiamenti hanno portato queste nuove tecnologie nella comunicazione e nelle relazioni tra impresa sportiva ed i suoi fan? 3 E' possibile individuare un indice di esposizione su Web e Social Media applicato ai teams NBA in grado di fornire una stima di quanto e come una società stia usando questi mezzi? Il progetto inizia con un’analisi dello stato dell’arte, partendo dal settore più generale del marketing e del management dello sport, passando per l’utilizzo dei Social Media nel settore sportivo fino a focalizzarsi sugli studi specifici relativi al mondo NBA. Successivamente lo studio segue tre fasi: una prima introduttiva dove sono descritti i principali mezzi disponibili per le società in termini di Social Media Marketing e gli effetti benefici che questi possono avere; una seconda fase in cui viene definito l’indice nei suoi diversi parametri, ed infine un’ultima fase in cui vengono raccolti i dati relativi ad un campione di squadre NBA ed analizzati per elaborare i risultati ottenuti. L’elaborazione dei risultati porta poi ad individuare trend comuni, punti di forza e debolezza ed eventuali migliorie future per le strategie delle società NBA.