136 resultados para Gouvernance locale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La catalogazione è la tecnica per costruire, mantenere e aggiornare un catalogo. L’utilizzo del catalogo diventa strettamente necessario quando la raccolta dei documenti viene fuori da un ambito locale e si riferisce ad un pubblico che vuole beneficiare delle informazioni possedute dalla biblioteca. Il passo successivo è aderire ad un sistema in cui ciascuna biblioteca contribuisce alla costruzione del catalogo, trasmettendo i propri dati e le informazioni relative ai documenti in proprio possesso. Per effettuare questa progressione è necessario aderire allo standard catalografico del sistema. La Biblioteca dello Studentato per le Missioni ha deciso di passare da un catalogo bibliografico cumulativo, realizzato con il software CDS/ISIS e l’interfaccia web IBISWEB, ad un sistema più vasto e strutturato, quale l’OPAC CEIBib: per aderire al sistema è necessario effettuare una conversione di formato dei dati bibliografici della banca dati. Lo scopo di questa tesi, dunque, è quello di realizzare un tool di conversione di formato dei dati bibliografici, passando dal formato di catalogazione CDS/ISIS, basato su UNIMARC, al formato MARC 21. La struttura della tesi è organizzata come segue. Il primo capitolo racconta, in breve, la nascita della Biblioteca dello Studentato per le Missioni e del fondo librario di cui dispongono. Il secondo capitolo introduce alla catalogazione, approfondendo diversi aspetti tra cui il catalogo, i formati di catalogazione e i diversi sistemi. Il terzo capitolo tratta il formato di rappresentazione dei metadati MARC 21, adottato dall’OPAC CEIBib come formato bibliografico per la catalogazione. Il quarto capitolo descrive il software di catalogazione CDS/ISIS. In particolare, la creazione dei record CDS/ISIS e l’esportazione degli stessi nel formato ISO 2709. Il quinto capitolo mostra l’implementazione del tool di conversione di formato di dati bibliografici realizzato per la conversione della banca dati della Biblioteca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il termine Ecomuseo deriva dal greco οἶκος da intendersi come l’insieme delle relazioni all’interno di una comunità e delle interazioni tra la comunità e il territorio. Si tratta di un particolare processo di conoscenza, tutela e valorizzazione del patrimonio locale, materiale e immateriale. In mancanza di una legge quadro nazionale, in Italia finora sono state dodici le regioni e le province a sancire autonomamente l’istituzione e il riconoscimento degli Ecomusei, promuovendone la creazione. La Provincia Autonoma di Bolzano non è ancora dotata di uno strumento normativo per il riconoscimento degli Ecomusei. Si è pertanto valutata la possibilità di applicare lo strumento alle particolari condizioni socio-culturali del territorio sudtirolese. L’indagine è stata svolta a partire dall’analisi dei presupposti necessari alla realizzazione di un Ecomuseo generalmente condivisi dalle normative quali l’omogeneità culturale e la presenza di beni di comunità. Entrambi i criteri hanno richiesto di essere interpretati, sulla base di indagini storiche, sociali e culturali, svolte sotto il profilo architettonico, analizzando non solo la produzione edilizia nel tempo, ma anche i contenuti politici e culturali, la variazione della percezione del costruito da parte della popolazione e la conseguente evoluzione nell’approccio nei confronti della preesistenza. Verificate le condizioni di applicabilità dei criteri si è proceduto alla progettazione di un Ecomuseo Interculturale per la città di Merano (EIM), valutandone oggetto, finalità e struttura. Il progetto ha compreso anche la proposta di una sede per l’Ecomuseo, realizzando uno studio per il restauro di un’officina ferroviaria dei primi del Novecento riconoscendo in essa un importante documento di cultura materiale. In conclusione è stata quindi elaborata una proposta per un progetto di legge provinciale in materia di Ecomusei, quale fattore fondamentale per la loro organizzazione, promozione e diffusione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi viene affrontato il tema del Miglioramento Continuo all'interno di un caso di studio reale. Viene posta come obiettivo la verifica delle potenzialità dei principi del Miglioramento Continuo nel settore di confezionamento e trasformazione di prodotti liquidi alimentari. Il progetto riguarda il reparto di consulenza della multinazionale svedese Tetra Pak, che offre l'implementazione del sistema ad un'azienda cliente sita nel Regno Unito. L'implementazione del progetto si sviluppa da un primo accurato studio della situazione aziendale, a seguito del quale sono state riscontrate necessità di cambiamento in aree specifiche. Successivamente a questa prima fase di studio segue una seconda fase di pianificazione e sviluppo della strategia di miglioramento che ha visto coinvolti il personale Tetra Pak e il personale dell'azienda locale. Il processo di miglioramento viene applicato inizialmente su una cella pilota, selezionata all'interno delle linee produttive dell'azienda cliente, per poi essere espanso a tutto il reparto produttivo qualora il risultato misurato confermi le aspettative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dallo studio della sismicità storica della città di Bologna (Guidoboni e Boschi, 2003) emerge che la maggior parte dei danni causati dai terremoti è concentrata nella parte Nord e Nord-Ovest della città, a nord delle attuali vie S. Donato e S. Isaia. In questo lavoro abbiamo studiato la risposta sismica in diversi siti del centro storico di Bologna, per capirne il comportamento in caso di terremoto e verificare se i risultati fossero compatibili con i dati storici. È stata effettuata una campagna di misure geofisiche: 52 con tecnica passiva a stazione singola HVSR per misurare le frequenze di amplificazione dei sottosuoli (47 all’interno delle mura), 5 in array per misurare l’andamento delle velocità delle onde di taglio nel sottosuolo (tutte all’interno delle mura). 22 delle 47 misure H/V mostrano amplificazione nell’intervallo di frequenze tra 1 e 10 Hz, quello di interesse per le strutture del centro storico. Le cause di queste amplificazioni si ipotizzano essere un livello ghiaioso a circa 10-15 m di profondità (Fiori, 2002) in approfondimento da centro città verso est, e un livello sabbioso a circa 10 m di profondità (Amorosi, 2014). Le misure in array, invece, indicano sostanzialmente che l’estremità orientale della città storica ha rigidezze maggiori a profondità maggiori di 50 m. Il dato derivante dalla sismologia storica, in sintesi, non pare essere completamente supportato da evidenze geologiche o geofisiche: la risposta sismica all’interno delle mura di Bologna varia leggermente da punto a punto, ma senza mostrare trend applicabili ad estese macroaree. Solo l’estremo Nord-Est della città ha un comportamento amplificativo più omogeneo (amplificazione a 1-3 Hz) in linea con la geologia locale, che presenta livelli marcatamente ghiaiosi sotto i 15 m di profondità. La variabilità geologica e di risposta sismica locale è stata verificata essere molto maggiore fuori dalle mura di cinta della città.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prospettiva della teranostica è quella di effettuare contemporaneamente diagnosi e cura, individuando le singole particelle tumorali. Questo è possibile grazie a nanoparticelle magnetiche, entità multifunzionali rivestite da un polimero, accompagnate nel luogo di interesse mediante un campo magnetico esterno. Per quanto riguarda la diagnosi possono essere utilizzate come agenti nella risonanza magnetica nucleare per aumentare il contrasto dell’immagine e consentire una migliore rivelazione del tumore. Per quanto riguarda la terapia esse sono utilizzate per l’ipertermia magnetica, tecnica basata sul riscaldamento mediante l’applicazione di un debole campo magnetico alternato dotato di un’opportuna frequenza. In questo modo le cellule tumorali, essendo più sensibili al calore rispetto a quelle sane, vengono distrutte, una volta raggiunta una temperatura locale tra i 41 e i 46°C. Un’altra grande applicazione terapeutica è il rilascio controllato e mirato dei farmaci (drug target delivery). Infatti un opportuno rivestimento polimerico consente di coniugare alla particella dei medicinali chemioterapici che, una volta raggiunta la zona tumorale, possono essere rilasciati nel tempo, permettendo dunque la somministrazione di una minor dose e un’azione più mirata rispetto ai classici trattamenti. I materiali maggiormente utilizzati per la sintesi delle nanoparticelle sono gli ossidi di ferro (come la magnetite Fe3O4 e la maghemite γ − Fe2O3) e l’oro. Tuttavia, nonostante i possibili vantaggi, questi trattamenti presentano degli effetti collaterali. Trattandosi infatti di particelle ultrafini, dell’ordine dei nanometri, possono migrare all’interno del corpo umano raggiungendo organi bersaglio e comprometterne il loro funzionamento. La teranostica, però, è una disciplina molto studiata e in via di sviluppo; si spera che da qui a breve sia possibile un utilizzo concreto di questi nuovi metodi, riducendo al minimo la tossicità per il corpo umano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio degli elementi frontali, posteriori e di collegamento di una macchina per il coating continuo di prodotti farmaceutici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La TiO2 è uno dei materiali più studiati degli ultimi decenni. I motivi sono da ricercarsi nelle sue numerose applicazioni, possibili in molti campi come dispositivi fotovoltaici, depurazione da agenti inquinanti o filtraggio di raggi UV. Per le celle elettrochimiche in particolare, il biossido di titanio offre molti vantaggi, ma non è privo di ostacoli. Il limite principale è lo scarso assorbimento dello spettro visibile, dovuto all’energy gap elevato (circa 3.2 eV). La ricerca da diversi anni si concentra sul tentativo di aumentare l’assorbimento di luce solare: promettenti sono i risultati raggiunti grazie alla forma nanoparticellare della TiO2, che presenta proprietà diverse dal materiale bulk. Una delle strategie più studiate riguarda il drogaggio tramite impurità, che dovrebbero aumentare le prestazioni di assorbimento del materiale. Gli elementi ritenuti migliori a questo scopo sono il vanadio e l’azoto, che possono essere usati sia singolarmente che in co-doping. In questo lavoro abbiamo realizzato la crescita di nanoparticelle di V-TiO2, tramite Inert Gas Condensation. La morfologia e la struttura atomica sono state analizzate attraverso microscopia a trasmissione, analizzandone la mappe tramite image processing. Successivamente abbiamo studiato le proprietà di assorbimento ottico dei campioni, nello spettro visibile e nel vicino ultravioletto, attraverso il metodo della riflettanza diffusa, determinando poi il bandgap tramite Tauc Plot. L’esperimento centrale di questo lavoro di tesi è stato condotto sulla beamline ID26 dell’European Synchrotron Radiation Facility, a Grenoble. Lì, abbiamo effettuato misure XANES, allo scopo di studiare gli stati fotoeccitati del materiale. L’eccitazione avveniva mediante laser con lunghezza d’onda di 532 nm. Tramite gli spettri, abbiamo analizzato la struttura locale e lo stato di ossidazione del vanadio. Le variazioni indotta dal laser hanno permesso di capire il trasferimento di carica e determinare la vita media.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ambiente di questa tesi è quello del Delay and Disruption Tolerant Networks (DTN), un'architettura di rete di telecomunicazioni avente come obiettivo le comunicazioni tra nodi di reti dette “challenged”, le quali devono affrontare problemi come tempi di propagazione elevati, alto tasso di errore e periodi di perdita delle connessioni. Il Bunde layer, un nuovo livello inserito tra trasporto e applicazione nell’architettura ISO/OSI, ed il protocollo ad esso associato, il Bundle Protocol (BP), sono stati progettati per rendere possibili le comunicazioni in queste reti. A volte fra la ricezione e l’invio può trascorrere un lungo periodo di tempo, a causa della indisponibilità del collegamento successivo; in questo periodo il bundle resta memorizzato in un database locale. Esistono varie implementazioni dell'architettura DTN come DTN2, implementazione di riferimento, e ION (Interplanetary Overlay Network), sviluppata da NASA JPL, per utilizzo in applicazioni spaziali; in esse i contatti tra i nodi sono deterministici, a differenza delle reti terrestri nelle quali i contatti sono generalmente opportunistici (non noti a priori). Per questo motivo all’interno di ION è presente un algoritmo di routing, detto CGR (Contact Graph Routing), progettato per operare in ambienti con connettività deterministica. È in fase di ricerca un algoritmo che opera in ambienti non deterministici, OCGR (Opportunistic Contact Graph Routing), che estende CGR. L’obiettivo di questa tesi è quello di fornire una descrizione dettagliata del funzionamento di OCGR, partendo necessariamente da CGR sul quale è basato, eseguire dei test preliminari, richiesti da NASA JPL, ed analizzarne i risultati per verificare la possibilità di utilizzo e miglioramento dell’algoritmo. Sarà inoltre descritto l’ambiente DTN e i principali algoritmi di routing per ambienti opportunistici. Nella parte conclusiva sarà presentato il simulatore DTN “The ONE” e l’integrazione di CGR e OCGR al suo interno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All'interno della mia tesi verrà introdotta la teoria delle funzioni in R^{n} a variazione limitata (BV), seguendo le presentazioni di Lawrence C.Evans e Ronald F.Gariepy nel libro Measure Theory and Fine Properties of Functions e di Enrico Giusti nell'opera Minimal Surfaces and Functions of Bounded Variation. Le funzioni BV sono funzioni le cui derivate prime deboli sono misure di Radon, ossia misure di Borel regolari finite sui compatti. In particolare verranno anche analizzati gli insiemi E che hanno perimetro finito, ossia tali che la funzione indicatrice dell’insieme E sia una funzione BV. Nello specifico, nel primo capitolo verranno date le definizioni di funzioni BV e insiemi di perimetro finito, sia in una versione globale che in una locale, verrà enunciato un primo importante teorema per le funzioni BV e verrà analizzata la relazione tra funzioni di Sobolev e funzioni BV. Nel secondo capitolo, invece, verranno analizzate la semicontinuità inferiore, l'approssimazione con funzioni lisce e la compattezza di funzioni BV, mentre nel terzo capitolo verranno elencati alcuni risultati sulle funzioni BV riguardanti la Traccia, l'Estensione e la formula di Coarea. Infine, nel quarto ed ultimo capitolo, verranno studiate le disuguaglianze di Sobolev e Poincaré e le disuguaglianze isoperimetriche per funzioni BV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ambito delle Smart City si rivela di fondamentale importanza ottenere quante più informazioni possibili dalla popolazione locale. In questo scenario sono di utilizzo strategico sistemi di CrowdSensing e soprattutto di Mobile CrowdSensing per raccogliere informazioni dalla popolazione autoctona. Su queste basi nasce e si sviluppa il sistema ParticipAct dell’Università di Bologna. A differenza dei tradizionali sistemi di Mobile CrowdSensing, ParticipAct attua il modello del così detto “Mobile CrowdSensing Partecipativo”, che vede l’utente non solo come fonte di dati passivi, ma come fonte di informazioni di qualsiasi genere, da questionari a fotografie. Questa Tesi di laurea vuole mettere in evidenza come l’integrazione di dati multimediali, in particolare i Video, possono essere sfruttati come risorsa per Smart City grazie alla loro particolare natura composta. Viene poi analizzata la particolare architettura del sistema ParticipAct e come è stato possibile implementare la richiesta di Task contenenti azioni di tipo Video in un sistema basato su interazione Client - Server.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.