302 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema che si vuole affrontare è la progettazione e lo sviluppo di un sistema interattivo volto all’apprendimento e alla visita guidata di città d’arte. Si vuole realizzare un’applicazione per dispositivi mobili che offra sia il servizio di creazione di visite guidate che l’utilizzo delle stesse in assenza di connessione internet. Per rendere l’utilizzo dei servizi offerti più piacevole e divertente si è deciso di realizzare le visite guidate sotto forma di cacce al tesoro fotografiche, le cui tappe consistono in indizi testuali che per essere risolti richiedono risposte di tipo fotografico. Si è inoltre scelto di realizzare una community volta alla condivisione delle cacce al tesoro realizzate e al mantenimento di statistiche di gioco. Il contributo originale di questa tesi consiste nella progettazione e realizzazione di una App Android, denominata GeoPhotoHunt, che sfrutta l’idea della caccia al tesoro fotografica e geo localizzata per facilitare le visite guidate a luoghi di interesse, senza la necessità di una connessione ad internet. Il client viene reso indipendente dal server grazie allo spostamento degli algoritmi di image recognition sul client. Esentare il client dalla necessità di una connessione ad internet permette il suo utilizzo anche in città estere dove solitamente non si ha possibilità di connettersi alla rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013)⁠. Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al.⁠, era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il prodotto principale del lavoro è la Carta Geologica alla scala 1:5.000 che ha portato un avanzamento delle conoscenze nella zona in esame. Dal punto di vista stratigrafico il Gruppo dei Calcari Grigi è stato suddiviso nelle formazioni già distinte nei Fogli CARG Tione, Malè, Trento e Asiago: la Formazione di Monte Zugna, Fm. Di Loppio, Fm. Di Rotzo, Fm. Di Grigno. È stato possibile anche rilevare e cartografare l’Oolite di S. Vigilio, anche detta Encrinite di Monte Agaro, con uno spessore di circa 5 m sino alla zona di Sass de Falares, cioè più ad est di quanto noto in letteratura. E’ stato osservato che la Linea di Belluno non è un piano unico, ma comprende altre due faglie: la Linea di Monte Piad che consiste in una faglia inversa che taglia in cerniera l’Anticlinale del Monte Coppolo, e poco a sud la Linea di Sasso Falares che rappresenta la faglia che ha generato la piega per propagazione di faglia del Coppolo, e proseguendo poi verso l’alto ha tagliato tutta la piega emergendo in superficie. In tal modo si forma il duplex di Sasso Falares, arrangiato in una blanda coppia anticinale-sinclinale tipica della geometria di queste strutture, che risulta delimitato a nord dalla linea omonima e a sud dalla L. di Belluno s.s. che si incontrano a quota circa 700 m. Si è potuta anche ricostruire la cinematica del piano principale del thrust di Belluno studiando l’affioramento eccezionale messo a nudo di recente. Gli assi degli sforzi, agenti in compressione, ricostruiti tramite l’analisi meso-strutturale, testimoniano una compressione orientata NNW-SSE, correlabile con l’Evento Valsuganese del Serravalliano-Tortoniano, legato ad un asse compressivo N340 che rappresenta l’evento principale nella regione sudalpina. Anche l’Evento compressivo del Cattiano-Burdigalliano con asse N30 ed una compressione orientata circa E-W correlabile con l’Evento Scledense del Messiniano-Pliocene risultano dall’analisi strutturale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro si propone di definire l’assetto geologico strutturale dell’area compresa tra la Valle del Torrente Cismon ed il Sass de Falares, a nord di Lamon (BL). Le novità che si sono potute aggiungere alla cartografia esistente, dal punto di vista stratigrafico sono: 1) La suddivisione del gruppo dei Calcari Grigi in quattro formazioni presenti più a occidente, quali la formazione di Monte Zugna, la formazione di Loppio, la formazione di Rotzo e la formazione del Grigno che in queste zone non erano ancora state evidenziate. La presenza di diffusi noduli di selce grigio-giallastra presenti nella parte medio-alta della formazione di Monte Zugna che testimoniano la persistenza di un ambiente subtidale nel Lias al passaggio tra Alto di Trento e Bacino Bellunese. 2) La presenza dell’Encrinite di Monte Agaro (Oolite di S.Vigilio) con uno spessore esiguo di 5 m sul Monte Coppolo ed anche in cresta a Sass de Falares. In ambito tettonico: 1) Si è accertato che l’anticlinale del Monte Coppolo è tagliata dalla faglia inversa del M.Piad con direzione circa E – O e immergente a N con un’inclinazione di circa 70° spezzando la piega quasi in cerniera; la si può riconoscere sul versante S ed E del M. Coppolo dove disloca la Fm. di M. Zugna e la Dolomia Principale. 2) Si è ricostruito l’assetto tettonico del Sass de Falares, che risulta essere una scaglia tettonica (duplex) compresa tra la Linea di Sass de Falares e la Linea di Belluno. 3) L’Anticlinale del M. Coppolo si è generata per propagazione di una faglia che corrisponde alla Linea di Sass de Falares che in seguito ha tagliato l’anticlinale con meccanismi di fault bend folding. Infine per ultima si è formata la Linea di Belluno s.s. a basso angolo con un raccorciamento maggiore di 2 km. Il sovrascorrimento di Belluno pertanto non è una struttura unica ma si sfrangia in 3 strutture tettoniche separate: Linea di M.Piad, Linea di Sass de Falares e Linea di Belluno s.s. 4) In Val della Selva è stato invece fatta la scoperta più importante di questo lavoro, visto che si è potuto osservare direttamente il piano principale della Linea di Belluno affiorante sulla strada forestale che porta verso la località Pugnai e quindi studiarlo e tracciarlo con precisione sulla carta. Esso ha direzione N68 ed un inclinazione di 30° verso NNW; mette a contatto la Fm. di M. Zugna con la Maiolica. Nell’affioramento si è potuta definire l’anatomia della zona di taglio con associazioni di piani R, R’, P e tettoniti S-C. 5) La ricostruzione della sezione geologica ci ha permesso di riconoscere l’organizzazione degli strati coinvolti nella deformazione. Attraverso programmi appositi quali Georient e Software Carey sono stati ricostruiti gli assi di massima compressione tramite l’analisi meso-strutturale: essi testimoniano una compressione orientata NNW-SSE, in accordo con l’Evento Valsuganese del Serravalliano-Tortoniano, legato ad un asse compressivo N340 che rappresenta l’evento principale nella regione sudalpina, ma sono stati riconosciuti anche assi di compressione orientati NE-SW e circa E-W correlabili con l’Evento Insubrico del Miocene inf. e con l’Evento Scledense del Messiniano - Pliocene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio e progettazione di un gruppo turbocompressore ad altissimo rapporto di compressione. Saranno progettati la girante del compressore centrifugo, il diffusore, la voluta e la girante della turbina centripeta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro è stato finalizzato all’analisi delle caratteristiche spettrali delle acque sia da dati in situ che telerilevati, attraverso l’implementazione di algoritmi semi-empirici e modelli bio-ottici dedicati. Inoltre prende in considerazione la correzione delle immagini ottiche per la mappatura delle concentrazioni del particellato sospeso per osservarne la distribuzione nelle acque costiere dell’Alto Adriatico. Le acque costiere sono caratterizzate da un'alta variabilità di proprietà ottiche che dipende dalle specifiche ambientali e stagionali, dai processi idrodinamici e dalle componenti che contiene. Lo studio della dinamica di dispersione del materiale totale sospeso, analizzato in questo lavoro, è stato possibile proprio grazie alle proprietà ottiche del particellato sospeso che, assieme alla clorofilla, è annoverato tra le sostanze otticamente attive. E’ stata svolta un’analisi pluriennale al fine di valutare quali fossero i diversi fattori che influenzano le dinamiche e la distribuzione del particellato sospeso presente nelle acque costiere nell’area prospiciente il delta del Po. La dinamica di dispersione del materiale sospeso in acque superficiali è modulato da variazioni spazio-temporali legate a diversi fattori, tra i quali sono stati considerati l’influenza dell’apporto fluviale del Po e il contributo derivante da diverse condizioni meteomarine. L’analisi effettuata e i risultati ottenuti sono un contributo preliminare a supporto di una gestione costiera, e può fornire una visuale d’insieme dei principali fattori che determinano la presenza di materiale sospeso nella regione costiera esaminata. Tali informazioni sono utili ad una gestione più informata al fine di ridurre gli impatti legati alla presenza di materiale sospeso nelle acque dell’area presa in esame. Le attività svolte sono incluse nel progetto CYAN IS WAS all’interno del programma esecutivo sulla cooperazione scientifica e tecnologica tra la Repubblica d’Italia e il Regno di Svezia per gli anni 2010-2013 e nell’ambito del progetto bandiera RITMARE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I materiali compositi sono largamente utilizzati nel moderno campo ingegneristico e garantiscono una notevole riduzione di peso rispetto ai materiali classici, a parità di caratteristiche meccaniche. Le conoscenze su di essi tuttavia presentano ancora delle lacune: in particolare un aspetto critico di tali materiali è rappresentato dal loro comportamento successivo ad un impatto. Obiettivo della presente tesi è indagare tale problematica mediante la realizzazione di una campagna sperimentale innovativa. Verrà presentata una introduzione generale sui materiali compositi e sulla problematica dei danni da impatto e verrà descritta l'attrezzatura utilizzata per la realizzazione degli impatti, analizzando le problematiche riscontrate e le soluzioni trovate. Dopo un accenno ai Controlli Non Distruttivi effettuabili sui materiali compositi, verrà mostrata l'attrezzatura per la realizzazione di prove a compressione, analizzando le problematiche riscontrate e le soluzioni trovate. Saranno elencati i dati acquisiti durante le prove di impatto e di compressione e, infine, saranno illustrate le conclusioni del lavoro e i possibili sviluppi futuri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.