963 resultados para Cochran regressione lineare stima inferenza statistica
Resumo:
La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.
Resumo:
Polymere Hohlstrukturen eignen sich um eine große Anzahl an Gastmolekülen zu verkapseln und bieten somit interessante Anwendungsmöglichkeiten, z.B. im Bereich kontrollierter Transportsysteme. Solche wohl definierten Strukturen lassen sich mittels des Sol-Gel-Prozesses durch Hydrolyse und Kondensation von Dialkoxydialkyl- und Trialkoxyalkylsilanen in wässriger Dispersion in Gegenwart von Tensiden synthetisieren. Die Methode ermöglicht den Aufbau verschiedener Kern-Schale-Systeme, inklusive Hohlkugelarchitekturen, mit Durchmessern von 10-100 nm. Abhängig von den eingestellten Parametern wird dabei eine bimodale Größenverteilung der Partikel beobachtet. Die bimodalen Proben wurden mittels der circularen asymmetrischen Fluss Feld-Fluss Fraktionierung (CAFFFE) fraktioniert. NMR-Untersuchungen deuten darauf hin, dass die Ursache der bimodalen Verteilung in der Synthese der Kerndispersion zu liegen scheint. MALDI-TOF-MS und GC-Messungen zeigen, dass der Kern der größeren Partikel ausschließlich aus zyklischen Kondensationsprodukten besteht, während im Kernmaterial der kleineren Partikel zusätzlich noch lineare Polydimethylsiloxan-Ketten vorhanden sind. Unter der Annahme, dass PDMS als Ultrahydrophob wirkt, lässt sich die Ostwaldreifung als Ursache der Bimodalität ausmachen. Eine Erhöhung des PDMS-Anteils, der zur Stabilisierung gegen den Reifungsprozess notwendig ist, führt zu einer monomodalen Verteilung der erhaltenen Partikel.
Resumo:
L'oggetto principale di questa tesi è il concetto di fine negli universi seriali. Spesso si intende il “The End” in un romanzo o in un film come un momento climatico, e che i finali sono collegati ad una teleologia che guida il testo nel suo insieme. Come risultato di questo modo di approcciare i finale, una delle opinioni più comuni è simile a quella di Henry James [1884] che diceva: “distribution at the last of prizes, pensions, husbands, wives, babies, millions, appended paragraph, and cheerful remarks”. Ma è molto difficile applicare la posizione di James a un romanzo modernista o a un film postmoderno e ancor ameno ai cosiddetti universi narrativi seriali, in cui la storia si sviluppa lungo decenni. Nel nostro contemporaneo panorama mediale, il testo non è più concepito come un'opera, ma deve essere costruito e concepito come un network, un ecosistema in cui nuove connessioni economiche e nuove relazioni bottom-up modellano una struttura inedita. Questa nuova struttura può riconfigurare il senso del finale e della fine, ma anche per le vast narratives spesso si dice che “Il finale non corrispondeva alla spirito della storia”, “il finale era deludente”. Potremmo sostenere che il concetto di finale sia ancora importante, nonostante sia stato superato dal punto di vista teorico. Per analizzare se il finale è costruito in un maniera non-lineare ma percepito come teleologico, la tesi è strutturata in due parti e di quattro capitoli. Prima parte “Storia” [1. Letteratura; 2. Cinema], seconda “Forme/strutture” [3. Transmedia; 4. Remix]
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.
Resumo:
Nelle celle solari HIT (Heterojunction Intrinsic Thin layer) attualmente in circolazione il materiale maggiormente utilizzato è sicuramente il silicio, per la sua buona caratteristica di assorbimento e disponibilità in natura. Tuttavia, la struttura amorfa del silicio impiegato come emettitore, limita fortemente la conducibilità e aumenta gli effetti di degradazione legati all'esposizione alla luce. In quest'ottica, nel presente lavoro di tesi, vengono analizzati sottili layers di Silicon Oxynitride ossigenato, depositati in forma nanocristallina presso l'Università di Costanza su substrati in vetro, tramite PECVD (Plasma-Enhanced Chemical Vapor Deposition). Il materiale, che non presenta i difetti intrinseci della forma amorfa, è dal punto di vista delle proprietà fisiche fondamentali ancora poco conosciuto e rappresenta una possibile alternativa agli analoghi campioni in forma amorfa. Le misure e le analisi presentate in questa tesi, svolte presso il Dipartimento di Fisica e Astronomia di Bologna, sono finalizzate ad indagare le principali proprietà ottiche, quali l'energy gap e l'indice di rifrazione dei layers. I risultati ottenuti, espressi in funzione dei parametri di deposizione, mostrano che un aumento della concentrazione di ossigeno in fase di deposito implica un aumento lineare dell'ampiezza dell'energy gap e un calo dell'indice di rifrazione. Anche altri parametri come la potenza di deposito e il tempo di annealing sembrano giocare un ruolo importante sul valore dell'energy gap. I risultati appaiono inoltre essere in buon accordo con quanto ottenuto da studi precedenti su layers simili ma con una maggiore fase amorfa. In conclusione, la possibilità di regolare il valore dell'energy gap e l'indice di rifrazione in base ai parametri di deposizione, unita alle buone prerogative tipiche dei materiali cristallini, conferisce al materiale buone prospettive per applicazioni fotovoltaiche come emettitori in celle ad eterogiunzione o rivestimenti con proprietà antiriflettenti
Resumo:
L'epilessia frontale notturna (EFN) è caratterizzata da crisi motorie che insorgono durante il sonno. Scopo del progetto è studiare le cause fisiopatologiche e morfo-funzionali che sottendono ai fenomeni motori nei pazienti con EFN e identificare alterazioni strutturali e/o metaboliche mediante tecniche avanzate di Risonanza Magnetica (RM). Abbiamo raccolto una casistica di pazienti con EFN afferenti al Centro Epilessia e dei Disturbi del Sonno del Dipartimento di Scienze Neurologiche, Università di Bologna. Ad ogni paziente è stato associato un controllo sano di età (± 5 anni) e sesso corrispondente. Tutti sono stati studiati mediante tecniche avanzate di RM comprendenti Spettroscopia del protone (1H-MRS), Tensore di diffusione ed imaging 3D ad alta risoluzione per analisi morfometriche. In particolare, la 1H-MRS è stata effettuata su due volumi di interesse localizzati nei talami e nel giro del cingolo anteriore. Sono stati inclusi nell’analisi finale 19 pazienti (7 M), età media 34 anni (range 19-50) e 14 controlli (6 M) età media 30 anni (range 19-40). A livello del cingolo anteriore il rapporto della concentrazione di N-Acetil-Aspartato rispetto alla Creatina (NAA/Cr) è risultato significativamente ridotto nei pazienti rispetto ai controlli (p=0,021). Relativamente all’analisi di correlazione, l'analisi tramite modelli di regressione multipla ha evidenziato che il rapporto NAA/Cr nel cingolo anteriore nei pazienti correlava con la frequenza delle crisi (p=0,048), essendo minore nei pazienti con crisi plurisettimanali/plurigiornaliere. Per interpretare il dato ottenuto è possibile solo fare delle ipotesi. L’NAA è un marker di integrità, densità e funzionalità neuronale. E’ possibile che alla base della EFN ci siano alterazioni metaboliche tessutali in precise strutture come il giro del cingolo anteriore. Questo apre nuove possibilità sull’utilizzo di strumenti di indagine basati sull’analisi di biosegnali, per caratterizzare aree coinvolte nella genesi della EFN ancora largamente sconosciute e chiarire ulteriormente l’eziologia di questo tipo di epilessia.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
The advances that have been characterizing spatial econometrics in recent years are mostly theoretical and have not found an extensive empirical application yet. In this work we aim at supplying a review of the main tools of spatial econometrics and to show an empirical application for one of the most recently introduced estimators. Despite the numerous alternatives that the econometric theory provides for the treatment of spatial (and spatiotemporal) data, empirical analyses are still limited by the lack of availability of the correspondent routines in statistical and econometric software. Spatiotemporal modeling represents one of the most recent developments in spatial econometric theory and the finite sample properties of the estimators that have been proposed are currently being tested in the literature. We provide a comparison between some estimators (a quasi-maximum likelihood, QML, estimator and some GMM-type estimators) for a fixed effects dynamic panel data model under certain conditions, by means of a Monte Carlo simulation analysis. We focus on different settings, which are characterized either by fully stable or quasi-unit root series. We also investigate the extent of the bias that is caused by a non-spatial estimation of a model when the data are characterized by different degrees of spatial dependence. Finally, we provide an empirical application of a QML estimator for a time-space dynamic model which includes a temporal, a spatial and a spatiotemporal lag of the dependent variable. This is done by choosing a relevant and prolific field of analysis, in which spatial econometrics has only found limited space so far, in order to explore the value-added of considering the spatial dimension of the data. In particular, we study the determinants of cropland value in Midwestern U.S.A. in the years 1971-2009, by taking the present value model (PVM) as the theoretical framework of analysis.
Resumo:
Food commodity prices fluctuations have important impacts on poverty and food insecurity across the world. Conventional models have not provided a complete picture of recent price spikes in agricultural commodity markets, while there is an urgent need for appropriate policy responses. Perhaps new approaches are needed in order to better understand international spill-overs, the feedback between the real and the financial sectors and also the link between food and energy prices. In this paper, we present results from a new worldwide dynamic model that provides short and long-run impulse responses of wheat international prices to various real shocks.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
A farm-level programming model to compare the atmospheric impact of conventional and organic farming
Resumo:
A model is developed to represent the activity of a farm using the method of linear programming. Two are the main components of the model, the balance of soil fertility and the livestock nutrition. According to the first, the farm is supposed to have a total requirement of nitrogen, which is to be accomplished either through internal sources (manure) or through external sources (fertilisers). The second component describes the animal husbandry as having a nutritional requirement which must be satisfied through the internal production of arable crops or the acquisition of feed from the market. The farmer is supposed to maximise total net income from the agricultural and the zoo-technical activities by choosing one rotation among those available for climate and acclivity. The perspective of the analysis is one of a short period: the structure of the farm is supposed to be fixed without possibility to change the allocation of permanent crops and the amount of animal husbandry. The model is integrated with an environmental module that describes the role of the farm within the carbon-nitrogen cycle. On the one hand the farm allows storing carbon through the photosynthesis of the plants and the accumulation of carbon in the soil; on the other some activities of the farm emit greenhouse gases into the atmosphere. The model is tested for some representative farms of the Emilia-Romagna region, showing to be capable to give different results for conventional and organic farming and providing first results concerning the different atmospheric impact. Relevant data about the representative farms and the feasible rotations are extracted from the FADN database, with an integration of the coefficients from the literature.
Resumo:
Una delle realtà economiche più importanti della Sardegna è la produzione di Pecorino Romano DOP. Il contesto nel quale è nato e si è sviluppato ingloba molte delle precondizioni che favoriscono la nascita di un distretto. Il principale obiettivo di questo studio è verificare se il comparto lattiero caseario della Sardegna, focalizzato nella produzione di Pecorino Romano DOP, può creare un effetto distretto. Ciò potrebbe suggerire l'esistenza dello stesso distretto anche se atipico. Per verificare questa ipotesi, in primo luogo è stata esaminata l'efficienza produttiva delle imprese trasformatrici di Pecorino Romano utilizzando il metodo della Frontiera stocastica di produzione. Successivamente sono state cercate le cause delle differenze. Lo studio mostra che i livelli di efficienza osservati sono quasi interamente attribuibili agli input di produzione utilizzati, in particolare al latte. Risulta chiaro che il sistema delle cooperative funziona e che tali aziende ottengono sistematicamente margini di efficienza migliori rispetto alle non cooperative. Le variabili analizzate non permettono di concludere che esiste un "effetto distretto".
Resumo:
Obiettivo del lavoro è migliorare la lettura della ruralità europea. A fronte delle profonde trasformazioni avvenute, oggi non è più possibile analizzare i territori rurali adottando un mero approccio dicotomico che semplicemente li distingua dalle città. Al contrario, il lavoro integra l’analisi degli aspetti socio-economici con quella degli elementi territoriali, esaltando le principali dimensioni che caratterizzano le tante tipologie di ruralità oggi presenti in Europa. Muovendo dal dibattito sulla classificazione delle aree rurali, si propone dapprima un indicatore sintetico di ruralità che, adottando la logica fuzzy, considera congiuntamente aspetti demografici (densità), settoriali (rilevanza dell’attività agricola), territoriali e geografici (accessibilità e uso del suolo). Tale tecnica permette di ricostruire un continuum di gradi di ruralità, distinguendo così, all’interno dell’Unione Europea (circa 1.300 osservazioni), le aree più centrali da quelle progressivamente più rurali e periferiche. Successivamente, attraverso un’analisi cluster vengono individuate tipologie di aree omogenee in termini di struttura economica, paesaggio, diversificazione dell’attività agricola. Tali cluster risentono anche della distribuzione geografica delle aree stesse: vengono infatti distinti gruppi di regioni centrali da gruppi di regioni più periferiche. Tale analisi evidenzia soprattutto come il binomio ruralità-arretratezza risulti ormai superato: alcune aree rurali, infatti, hanno tratto vantaggio dalle trasformazioni che hanno interessato l’Unione Europea negli ultimi decenni (diffusione dell’ICT o sviluppo della manifattura). L’ultima parte del lavoro offre strumenti di analisi a supporto dell’azione politica comunitaria, analizzando la diversa capacità delle regioni europee di rispondere alle sfide lanciate dalla Strategia Europa 2020. Un’analisi in componenti principali sintetizza le principali dimensioni di tale performance regionale: i risultati sono poi riletti alla luce delle caratteristiche strutturali dei territori europei. Infine, una più diretta analisi spaziale dei dati permette di evidenziare come la geografia influenzi ancora profondamente la capacità dei territori di rispondere alle nuove sfide del decennio.
Resumo:
Dealing with latent constructs (loaded by reflective and congeneric measures) cross-culturally compared means studying how these unobserved variables vary, and/or covary each other, after controlling for possibly disturbing cultural forces. This yields to the so-called ‘measurement invariance’ matter that refers to the extent to which data collected by the same multi-item measurement instrument (i.e., self-reported questionnaire of items underlying common latent constructs) are comparable across different cultural environments. As a matter of fact, it would be unthinkable exploring latent variables heterogeneity (e.g., latent means; latent levels of deviations from the means (i.e., latent variances), latent levels of shared variation from the respective means (i.e., latent covariances), levels of magnitude of structural path coefficients with regard to causal relations among latent variables) across different populations without controlling for cultural bias in the underlying measures. Furthermore, it would be unrealistic to assess this latter correction without using a framework that is able to take into account all these potential cultural biases across populations simultaneously. Since the real world ‘acts’ in a simultaneous way as well. As a consequence, I, as researcher, may want to control for cultural forces hypothesizing they are all acting at the same time throughout groups of comparison and therefore examining if they are inflating or suppressing my new estimations with hierarchical nested constraints on the original estimated parameters. Multi Sample Structural Equation Modeling-based Confirmatory Factor Analysis (MS-SEM-based CFA) still represents a dominant and flexible statistical framework to work out this potential cultural bias in a simultaneous way. With this dissertation I wanted to make an attempt to introduce new viewpoints on measurement invariance handled under covariance-based SEM framework by means of a consumer behavior modeling application on functional food choices.
Resumo:
L’elaborato ha lo scopo di presentare le nuove opportunità di business offerte dal Web. Il rivoluzionario cambiamento che la pervasività della Rete e tutte le attività correlate stanno portando, ha posto le aziende davanti ad un diverso modo di relazionarsi con i propri consumatori, che sono sempre più informati, consapevoli ed esigenti, e con la concorrenza. La sfida da accettare per rimanere competitivi sul mercato è significativa e il mutamento in rapido sviluppo: gli aspetti che contraddistinguono questo nuovo paradigma digitale sono, infatti, velocità, mutevolezza, ma al tempo stesso misurabilità, ponderabilità, previsione. Grazie agli strumenti tecnologici a disposizione e alle dinamiche proprie dei diversi spazi web (siti, social network, blog, forum) è possibile tracciare più facilmente, rispetto al passato, l’impatto di iniziative, lanci di prodotto, promozioni e pubblicità, misurandone il ritorno sull’investimento, oltre che la percezione dell’utente finale. Un approccio datacentrico al marketing, attraverso analisi di monitoraggio della rete, permette quindi al brand investimenti più mirati e ponderati sulla base di stime e previsioni. Tra le più significative strategie di marketing digitale sono citate: social advertising, keyword advertising, digital PR, social media, email marketing e molte altre. Sono riportate anche due case history: una come ottimo esempio di co-creation in cui il brand ha coinvolto direttamente il pubblico nel processo di produzione del prodotto, affidando ai fan della Pagina Facebook ufficiale la scelta dei gusti degli yogurt da mettere in vendita. La seconda, caso internazionale di lead generation, ha permesso al brand di misurare la conversione dei visitatori del sito (previa compilazione di popin) in reali acquirenti, collegando i dati di traffico del sito a quelli delle vendite. Esempio di come online e offline comunichino strettamente.