100 resultados para Legge fallimentare


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Applicazione delle equazioni differenziali alla Legge di Newton e ai vari tipi di moto armonico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si è studiato un corpus di importanti testi della letteratura Italiana utilizzando la teoria dei network. Le misure topologiche tipiche dei network sono state calcolate sui testi letterari, poi sono state studiate le loro distribuzioni e i loro valori medi, per capire quali di esse possono distinguere un testo reale da sue modificazioni. Inoltre si è osservato come tutti i testi presentino due importanti leggi statistiche: la legge di Zipf e quella di Heaps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trovare una fonte alternativa ai combustibili fossili non costituisce più una scelta, ma un obbligo. Lo sfruttamento dell’energia geotermica sta diventando una realtà sempre più diffusa, in quanto una forma di energia rinnovabile, pulita, economicamente conveniente, e con una giusta politica energetica potrebbe dare il suo importante contributo all’energia ottenuta da fonte rinnovabile. Ci sono però dei fattori da non sottovalutare, l’installazione e il funzionamento di impianti geotermici per il riscaldamento o raffrescamento di edifici può produrre alterazioni sull’ambiente circostante e nella falda acquifera. Attraverso un attento studio vengono presi in considerazione tutti i fattori che potrebbero provocare un cambiamento dell’equilibrio preesistente, e vengono individuate le soluzioni che permettono la fattibilità del progetto rispettando i parametri imposti dalla legge. Nell’istallazione di sistemi geotermici a bassa entalpia, il principale elemento da tenere sotto osservazione riguarda la previsione e il controllo delle temperature, in modo tale da impedire lo sviluppo di anomalie termiche. Il sistema preso in considerazione in questa tesi è un sistema geotermico open loop: attraverso un pozzo di adduzione viene prelevata acqua direttamente dalla falda acquifera, per il riscaldamento o il raffrescamento di un edificio, e reimmessa, ad una temperatura diversa, attraverso un pozzo di reimmissione. Si valuta l’impatto del sistema nel sottosuolo e le temperature raggiunte a seguito della messa in opera dell’impianto. In particolare, è proposto un modello numerico MODFLOW di un sistema open loop in un acquifero di sabbia e ghiaia, al fine di determinare l’influenza della reimmissione dal punto di vista idrico e termico. I dati risultanti da questo modello saranno confrontati con quelli ottenuti utilizzando un potente software, COMSOL MULTIPHYSICS. Infine si effettua l’analisi e il confronto dei dati ottenuti dai due software nelle diverse configurazioni del sistema e se ne individua la più adatta alle caratteristiche del sito in esame.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi quindi sono stati analizzati gli aspetti relativi alla legislazione sulla sicurezza, contemplando la nascita e l’evoluzione dell’assetto normativo italiano ed il recepimento delle disposizioni comunitarie. In particolare è stata approfondita la normativa riguardante i cantieri temporanei e/o mobili per l’attività edilizia. L’applicazione di quanto previsto in termini di legge è stato esaminato per un caso concreto di ristrutturazione edilizia. Sono stati esaminati gli aspetti critici del Piano Operativo di Sicurezza e proposte modifiche correttive per meglio adattarsi alla specificità del cantiere in oggetto, con lo scopo ultimo di diminuire l’esposizione al rischio ed aumentare la salvaguardia della sicurezza e salute dei lavoratori. Il caso di studio qui presentato evidenzia le difficoltà e le diffidenze che ancora permangono tra la norma e la sua applicazione in cantiere. Il vero anello debole della catena è spesso la mancanza della percezione della sicurezza come azione di tutela nei confronti dei lavoratori. Infatti, in mancanza di una adeguata sensibilizzazione, piuttosto che di una formazione “nozionistica”, il lavoratore continua a percepire la sicurezza come un’imposizione, come un qualcosa che ostacola il proprio lavoro. Non è certamente semplice cambiare un’impostazione che magari ha contrassegnato l’intero percorso lavorativo e la rinomata scomodità di alcuni DPI spesso porta ad un utilizzo saltuario degli stessi e solamente laddove viene realmente percepito un rischio per la propria incolumità. Ed è proprio per questo motivo che, nonostante i lavoratori siano perfettamente a conoscenza delle norme e delle prassi di buona tecnica da rispettare, continuino a lavorare con le stesse modalità che hanno appreso all’inizio dell’attività lavorativa. Il sondaggio somministrato ai lavoratori conferma questa realtà, suggerendo che la via della formazione, con particolare attenzione agli aspetti di sensibilizzazione, potrebbe diminuire concretamente il divario esistente tra la teoria (la norma) e la pratica. In ogni caso anche da questo studio è emerso in maniera incontrovertibile che la sicurezza sul lavoro, nonostante delle resistenze che solo il tempo, la costanza e le buone pratiche riusciranno a superare, resta comunque un processo storicamente ineluttabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi nasce con l’intento di indagare il rapporto tra l’interpretazione di conferenza e il mondo del volontariato, nonché di esplorare le dinamiche personali e professionali che originano da tale incontro. Nel primo capitolo viene presentata una cornice storica del fenomeno del volontariato quale premessa del suo emergere e imporsi sia a livello sociale e culturale, che a livello legislativo e giuridico. Nel secondo capitolo di questo studio si propone un breve quadro della situazione italiana odierna a partire dall’ultimo Censimento Istat sulle istituzioni non profit. In seguito, si presentano i caratteri strutturali dell’attività di volontariato così come individuati dalla legge-quadro sul volontariato, per passare poi ad indagare la natura giuridica dell’attività di volontariato con l’intento di collocarla all’interno di schemi qualificatori che assicurino la più adeguata tutela degli interessi del volontario e del beneficiario. Il terzo capitolo presenta l’indagine sperimentale condotta su un campione di interpreti di conferenza professionisti al fine di analizzare l’attività pro bono eventualmente svolta a partire da fattori come il tempo dedicato al volontariato, la natura delle motivazioni, i rapporti con le organizzazioni per le quali prestano i propri servizi. Viene presentata, inoltre, l’attività organizzata degli interpreti volontari tramite una disamina di alcune associazioni di interpreti pro bono attive a livello internazionale, nonché l’opinione delle associazioni di interpreti riguardo all’attività pro bono dei propri membri. Per ultimo, ci si soffermerà sulle difficoltà e i limiti che ostacolano lo svolgimento dell’interpretazione pro bono e che costituiscono, in pratica, la fonte delle critiche mosse nei suoi confronti dagli interpreti e dalle associazioni di interpreti. A tale scopo, verrà presentato, a titolo esemplificativo, il caso del Forum Sociale Mondiale tenutosi a Porto Alegre nel 2005.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si propone di offrire una visione approfondita della situazione del servizio di interpretazione giudiziaria nel Regno Unito. In particolare, alla luce della la Direttiva 2010/64/UE del Parlamento Europeo e del Consiglio sul diritto all'interpretazione e alla traduzione, analizza il fallimentare passaggio di gestione dei servizi di legal interpreting dal National Register of Public Service Interpreters (NRPSI) a Capita Translation and Interpreting (Capita TI). Il lavoro è strutturato in tre capitoli. Il primo tratta i contenuti della direttiva relativi all'ambito di indagine: l'istituzione di registri, la figura dell'interprete giudiziario suggerita e il ruolo degli Stati membri. Il secondo capitolo contiene invece l'analisi dei due sistemi: NRPSI, organizzazione no-profit, indipendente e volontaria, e Capita TI, azienda fornitrice di servizi linguistici. Si vedrà, nello specifico, come sono composte, come lavorano, come funzionano i loro registri, secondo quali criteri vengono selezionati gli interpreti e in che modo corrispondono alle direttive dell'Unione Europea. Nel terzo e ultimo capitolo, si presenta la situazione dell'interpretazione giudiziaria nel Regno Unito. Si ricostruiscono inizialmente le motivazioni che hanno portato il Ministero della Giustizia inglese ad appaltare a terzi la gestione del servizio di interpretazione giudiziaria, In seguito, si espongono le problematiche insorte sin dalla firma del contratto tra Capita TI e il Ministry of Justice e le conseguenti reazioni dei servizi pubblici coinvolti e degli interpreti che hanno deciso di boicottare la nuova disposizione. Dopo aver illustrato le misure che, nel 2013, Capita e l'MoJ si sono impegnati ad attuare per invertire la disastrosa tendenza iniziale, si vedrà infine in quale modo queste hanno influito sull'ancora irrisolta situazione attuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Legge di conversione n. 221/2012 del Decreto Legge n.79/2012 (c.d. Decreto Crescita 2.0) introduce nel Codice dell’Amministrazione Digitale la facoltà per ogni cittadino di indicare alla pubblica amministrazione un proprio indirizzo di posta elettronica certificata quale suo domicilio digitale. La Legge di conversione n. 98/2013 del Decreto Legge n. 69/2013 (c.d. Decreto del Fare) prevede l’assegnazione di una casella di posta elettronica certificata, con funzione di domicilio digitale, contestualmente al rilascio del Documento Digitale Unificato al cittadino. La disponibilità del domicilio digitale, costituito da una casella di posta elettronica certificata, può consentire alle amministrazioni pubbliche di dematerializzare le comunicazioni verso il cittadino indirizzandole al domicilio digitale con notevoli risparmi dovuti all’eliminazione della carta e delle spese spedizione. In questo studio, attorno al domicilio digitale e alle comunicazioni via posta elettronica certificata, si cercherà di spiegare come e con quali effetti, il diritto di ogni cittadino di disporre di un domicilio digitale possa proficuamente essere esercitato nelle comunicazioni e nelle trasmissioni di documenti con la pubblica amministrazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema del mio elaborato finale è la sottotitolazione del film “A passeggio per Mosca” di Georgij Danelija (1963), un noto regista russo. I suoi film più famosi sono “Мимино” (Mimino) e “Осенный марафон” (“Maratona d’autunno”). L’attore protagonista del film è Nikita Michalkov, famoso attore e regista, nonché personaggio controverso della vita culturale russa; il suo film più famoso è “Утомлённые солнцем” (“Sole ingannatore”). I personaggi più anziani furono interpretati da attori famosi quali Rolan Bykov, attore di teatro, e Vladimir Basov, regista e attore straordinariamente versatile. I ruoli principali, invece, furono affidati ad attori meno noti: Aleksej Loktev e Evgenij Steblov, che si dedicarono entrambi al teatro per gran parte della propria vita, e Galina Pol’skich, che divenne una grande attrice di film drammatici. Straordinari sono anche il lavoro dell’operatore cinematografico Vadim Jusov e quello del compositore Andrej Petrov. Il film suscitò diverse impressioni nel pubblico e nella critica e fu accolto positivamente da Chruščёv: presto sarebbe diventato un simbolo del “Disgelo”, un periodo in cui Chruščёv effettuò un’opera di destalinizzazione dell’URSS: il clima era quindi più disteso, sebbene vi fosse un malcontento diffuso a causa dell’economia fallimentare dello Stato. La canzone finale, che contribuì al successo del film, esprime perfettamente quest’atmosfera spensierata, che pervade anche Mosca, la vera protagonista del film. Della capitale vengono inquadrati i luoghi più importanti: tra questi il parco Gorkij, la metropolitana e il GUM. Tradurre i sottotitoli del film non è stato facile. In particolare, ho incontrato difficoltà nel tradurre alcune particelle russe che non hanno un equivalente in italiano e battute in cui erano presenti importanti riferimenti culturali. Il lavoro a cui mi sono dedicata con più impegno è stato la traduzione della canzone finale: desideravo che i sottotitoli italiani fossero in rima e conservassero il significato dei versi originari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.