892 resultados para Editor di Testo collaborativi,comportamento utenti,etherpad lite,RTCE


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa dissertazione è di identificare le tecnologie più appropriate per la creazione di editor parametrici per documenti strutturati e di descrivere LIME, un editor di markup parametrico e indipendente dal linguaggio. La recente evoluzione delle tecnologie XML ha portato ad un utilizzo sempre più consistente di documenti strutturati. Oggigiorno, questi vengono utilizzati sia per scopi tipografici sia per l’interscambio di dati nella rete internet. Per questa ragione, sempre più persone hanno a che fare con documenti XML nel lavoro quotidiano. Alcuni dialetti XML, tuttavia, non sono semplici da comprendere e da utilizzare e, per questo motivo, si rendono necessari editor XML che possano guidare gli autori di documenti XML durante tutto il processo di markup. In alcuni contesti, specialmente in quello dell’informatica giuridica, sono stati introdotti i markup editor, software WYSIWYG che assistono l’utente nella creazione di documenti corretti. Questi editor possono essere utilizzati anche da persone che non conoscono a fondo XML ma, d’altra parte, sono solitamente basati su uno specifico linguaggio XML. Questo significa che sono necessarie molte risorse, in termini di programmazione, per poterli adattare ad altri linguaggi XML o ad altri contesti. Basando l’architettura degli editor di markup su parametri, è possibile progettare e sviluppare software che non dipendono da uno specifico linguaggio XML e che possono essere personalizzati al fine di utilizzarli in svariati contesti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con l’avvento di Internet, potentissimo strumento tecnologico di diffusione di informazioni e di comunicazione a distanza, anche le modalità di apprendimento sono cambiate: persino nelle scuole si tende a non utilizzare più i classici libri di testo, ma ad utilizzare dispositivi dai quali scaricare in formato elettronico, libri, dispense, test, video ed ogni altro genere di materiale di apprendimento, dando vita a un vero e proprio nuovo modo di apprendere chiamato E-learning, più veloce, comodo e ricco di alternative rispetto al vecchio modello offline che si presentava sottoforma di floppy inizialmente e poi di CD-ROM. E-learning significa, electronic based learning, ed è appunto una vera e propria metodologia di didattica che sfrutta e viene facilitata da risorse e servizi disponibili e accessibili virtualmente in rete. Al momento vi sono numerose piattaforme di E-learning, una delle quali è il nucleo di questa tesi, ovvero il tool autore AContent. Questo documento di tesi, infatti, raccoglie la descrizione della progettazione e della fase implementativa della gestione delle politiche di copyright per il tool AContent. L’obbiettivo è quello di rendere possibile l’assegnazione di un copyright a qualsiasi tipo di materiale didattico venga creato, caricato e/o condiviso sulla piattaforma in questione. Pertanto l’idea è stata quella di dare la possibilità di scegliere fra più copyright preimpostati, utilizzando degli standard di licenze riguardanti i diritti d’autore, lasciando anche l’opportunità di inserire la propria politica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli ultimi anni hanno visto una crescita esponenziale nell’uso dei social media (recensioni, forum, discussioni, blog e social network); le persone e le aziende utilizzano sempre più le informazioni (opinioni e preferenze) pubblicate in questi mezzi per il loro processo decisionale. Tuttavia, il monitoraggio e la ricerca di opinioni sul Web da parte di un utente o azienda risulta essere un problema molto arduo a causa della proliferazione di migliaia di siti; in più ogni sito contiene un enorme volume di testo non sempre decifrabile in maniera ottimale (pensiamo ai lunghi messaggi di forum e blog). Inoltre, è anche noto che l’analisi soggettiva delle informazioni testuali è passibile di notevoli distorsioni, ad esempio, le persone tendono a prestare maggiore attenzione e interesse alle opinioni che risultano coerenti alle proprie attitudini e preferenze. Risulta quindi necessario l’utilizzo di sistemi automatizzati di Opinion Mining, per superare pregiudizi soggettivi e limitazioni mentali, al fine di giungere ad una metodologia di Sentiment Analysis il più possibile oggettiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi si è elaborato un quadro di riferimento per l’utilizzo combinato di due metodologie di valutazione di impatti LCA e RA, per tecnologie emergenti. L’originalità dello studio sta nell’aver proposto e anche applicato il quadro di riferimento ad un caso studio, in particolare ad una tecnologia innovativa di refrigerazione, basata su nanofluidi (NF), sviluppata da partner del progetto Europeo Nanohex che hanno collaborato all’elaborazione degli studi soprattutto per quanto riguarda l’inventario dei dati necessari. La complessità dello studio è da ritrovare tanto nella difficile integrazione di due metodologie nate per scopi differenti e strutturate per assolvere a quegli scopi, quanto nel settore di applicazione che seppur in forte espansione ha delle forti lacune di informazioni circa processi di produzione e comportamento delle sostanze. L’applicazione è stata effettuata sulla produzione di nanofluido (NF) di allumina secondo due vie produttive (single-stage e two-stage) per valutare e confrontare gli impatti per la salute umana e l’ambiente. Occorre specificare che il LCA è stato quantitativo ma non ha considerato gli impatti dei NM nelle categorie di tossicità. Per quanto concerne il RA è stato sviluppato uno studio di tipo qualitativo, a causa della problematica di carenza di parametri tossicologici e di esposizione su citata avente come focus la categoria dei lavoratori, pertanto è stata fatta l’assunzione che i rilasci in ambiente durante la fase di produzione sono trascurabili. Per il RA qualitativo è stato utilizzato un SW specifico, lo Stoffenmanger-Nano che rende possibile la prioritizzazione dei rischi associati ad inalazione in ambiente di lavoro. Il quadro di riferimento prevede una procedura articolata in quattro fasi: DEFINIZIONE SISTEMA TECNOLOGICO, RACCOLTA DATI, VALUTAZIONE DEL RISCHIO E QUANTIFICAZIONE DEGLI IMPATTI, INTERPRETAZIONE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relazione del lavoro di creazione e implementazione della piattaforma software che sviluppa l’archivio del progetto SATNET. I satelliti universitari hanno un tempo di vista della propria Stazione di Terra di pochi minuti al giorno: SATNET risponde all’esigenza di comunicare con un satellite universitario in orbita bassa per più dei pochi minuti al giorno che una singola Stazione di Terra permette. Questo avviene grazie a una rete di Stazioni di Terra Satellitari collegate da specifiche missioni comuni che mettono in condivisione dati ricevuti da uno o più satelliti, aumentando il rendimento dati/giorno di questi e permettendo una migliore fruizione delle Stazioni di Terra stesse. Il network sfrutta Internet come canale di connessione, e prevede la presenza di un archivio nel quale memorizzare i dati ricevuti, per poi renderne possibile la consultazione e il recupero. Oggetto di questo lavoro di tesi è stato lo sviluppo e l’implementazione di tale archivio: utilizzando un sito web dinamico, il software risponde a tutte le richieste evidenziate nel paragrafo precedente, permettendo a utenti autenticati di inserire dati e ad altri di poterne avere accesso. Il software è completo e funzionante ma non finito, in quanto manca la formulazione di alcune richieste; per esempio non è stato specificato il tipo di informazioni che è possibile caricare in upload, né il tipo di campi richiesti nel modulo di registrazione dei vari utenti. In questi casi sono stati inseriti campi generici, lasciando all’utente la possibilità di modificarli in seguito. Il software è stato dunque concepito come facilmente personalizzabile e modificabile anche da utenti inesperti grazie alla sola lettura della tesi, che rappresenta quindi una vera e propria guida per l’utilizzo, l’installazione, la personalizzazione e la manutenzione della piattaforma software. La tesi evidenzia gli obiettivi e le richieste, mostrando l’aspetto del sito web e le sue funzionalità, e spiega passo per passo il procedimento per la modifica dell’aspetto delle pagine e di alcuni parametri di configurazione. Inoltre, qualora siano necessarie modifiche sostanziali al progetto, introduce i vari linguaggi di programmazione necessari allo sviluppo e alla programmazione web e aiuta l’utente nella comprensione della struttura del software. Si conclude con alcuni suggerimenti su eventuali modifiche, attuabili solo a seguito di un lavoro di definizione degli obiettivi e delle specifiche richieste. In futuro ci si aspetta l’implementazione e la personalizzazione del software, nonché l’integrazione dell’archivio all’interno del progetto SATNET, con l’obiettivo di migliorare e favorire la diffusione e la condivisione di progetti comuni tra diverse Università Europee ed Extra-Europee.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si valutano le modalità di gestione ambientale all'interno di un'organizzazione sanitaria, affinché questa possa essere definita ecoefficiente. Per organizzazione ecoefficiente si intende un'impresa in grado di fornire un servizio di qualità per gli utenti, limitando il suo impatto ambientale applicando sistemi di gestione e politiche ambientali corrette. In questo modo la gestione 'green' porterà all'ente ospedaliero dei vantaggi di tipo economico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Applicazione su piattaforma Android per la condivisioni di registrazioni audio tra utenti. Crea la possibilità di ascoltare e creare discussioni riguardo alle registrazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Capire come modellare l'attività del cervello a riposo, resting state, è il primo passo necessario per avvicinarsi a una reale comprensione della dinamica cerebrale. Sperimentalmente si osserva che, quando il cervello non è soggetto a stimoli esterni, particolari reti di regioni cerebrali presentano un'attività neuronale superiore alla media. Nonostante gli sforzi dei ricercatori, non è ancora chiara la relazione che sussiste tra le connessioni strutturali e le connessioni funzionali del sistema cerebrale a riposo, organizzate nella matrice di connettività funzionale. Recenti studi sperimentali mostrano la natura non stazionaria della connettività funzionale in disaccordo con i modelli in letteratura. Il modello implementato nella presente tesi per simulare l'evoluzione temporale del network permette di riprodurre il comportamento dinamico della connettività funzionale. Per la prima volta in questa tesi, secondo i lavori a noi noti, un modello di resting state è implementato nel cervello di un topo. Poco è noto, infatti, riguardo all'architettura funzionale su larga scala del cervello dei topi, nonostante il largo utilizzo di tale sistema nella modellizzazione dei disturbi neurologici. Le connessioni strutturali utilizzate per definire la topologia della rete neurale sono quelle ottenute dall'Allen Institute for Brain Science. Tale strumento fornisce una straordinaria opportunità per riprodurre simulazioni realistiche, poiché, come affermato nell'articolo che presenta tale lavoro, questo connettoma è il più esauriente disponibile, ad oggi, in ogni specie vertebrata. I parametri liberi del modello sono stati scelti in modo da inizializzare il sistema nel range dinamico ottimale per riprodurre il comportamento dinamico della connettività funzionale. Diverse considerazioni e misure sono state effettuate sul segnale BOLD simulato per meglio comprenderne la natura. L'accordo soddisfacente fra i centri funzionali calcolati nel network cerebrale simulato e quelli ottenuti tramite l'indagine sperimentale di Mechling et al., 2014 comprovano la bontà del modello e dei metodi utilizzati per analizzare il segnale simulato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente elaborato ha lo scopo di analizzare il comportamento torsionale di diverse tipologie strutturali, valutare la veridicità del metodo “Alpha” per strutture ad un piano e successivamente testare la validità del metodo per strutture multipiano. Nel primo capitolo è stato introdotto inizialmente il problema, poi sono stati definiti per il sistema oggetto di studio l’equazione del moto e i diversi parametri che intervengono. Tra questi parametri di rilevante importanza si hanno l’indice di torsioflessibilità e l’eccentricità. Infine è stato definito il metodo “Alpha” per la determinazione della massima risposta rotazionale. Nel secondo capitolo è stata eseguita una valutazione analitica del parametro di torsioflessibilità per il caso specifico di struttura con due setti disposti ad uguale distanza dal centro di massa sia per il caso di struttura a pianta quadrata che per quella a pianta rettangolare. Nel terzo e nel quarto capitolo è stata effettuata una valutazione dell’indice di torsioflessibilità e dell’eccentricità, sia per strutture a pianta quadrata che per strutture a pianta rettangolare, caratterizzate da diversi elementi resistenti disposti in differenti posizioni. In particolare è stato analizzato come cambia l’indice di torsioflessibilità al variare dell’eccentricità per una stessa struttura. Nel quinto e sesto capitolo sono riportati i risultati delle analisi modali condotte per tutti i casi visti nei capitoli precedenti: nel caso ad un piano e nel caso di strutture multipiano (cinque e dieci piani). Nel settimo e ottavo capitolo sono riportati i risultati delle analisi time-history eseguite per le stesse strutture, dalle quali sono stati determinati gli spostamenti al fine di eseguire una verifica del metodo per strutture ad un piano e studiare i risultati ottenuti per strutture multipiano. Il lavoro svolto si conclude con il nono capitolo in cui sono stati riportati i risultati e le conclusioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La visione è il processo cerebrale mediante il quale l'organismo umano riesce a estrarre informazioni dal dato visivo proveniente dalla retina. Tentare di imitare questo comportamento mediante un elaboratore elettronico, il cosiddetto problema della visione, è una delle maggiori sfide del XXI secolo. In questo contesto lo scopo della tesi è dare una descrizione degli strumenti matematici che permettono di modellizzare la visione stereoscopica ed esporre le condizioni sotto le quali sia possibile effettuare una ricostruzione 3D ambientale a partire da due immagini della stessa scena nell'ipotesi di assenza di errore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.