96 resultados para gravità, modifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è illustrare il paradigma dell’inflazione cosmologica descrivendo in particolare la teoria dell’inflazione R^2. In una prima sezione si fa riferimento al contesto della relatività generale per descrivere l’universo su larga scala. Vengono prese in esame le ipotesi utilizzate per ottenere il modello standard della cosmologia e le principali proprietà che da esso possono essere ricavate. Si focalizza quindi l’analisi sulla descrizione dell’universo primordiale da cui traggono origine le ipotesi dell’esistenza dell’epoca inflazionaria esponendo, in particolare, come questa teoria riesca a risolvere i problemi della piattezza e dell’orizzonte cosmologico. Viene poi descritto come la fase di espansione esponenziale richiesta da queste ipotesi possa essere generata dalla presenza di un campo scalare φ specifico. Particolare risalto è dato alla descrizione dell’approssimazione di ”slow-roll” ed ai vincoli sul numero di ”e-folding”. Una seconda sezione mostra l’applicazione dell’analisi generale esposta in precedenza al modello di inflazione di Starobinsky. A tal fine sono descritte le caratteristiche delle teorie della gravità f(R) con particolare attenzione alle trasformazioni conformi e scelta del frame. Attraverso l’esposizione delle equazioni di campo cosmologiche nella teoria della gravità R^2 si mostra come il processo di espansione inflazionaria dell’universo nelle sue fasi iniziali possa essere descritto da un comportamento non standard della gravità ad alte energie. Sono riportati i risultati principali ottenuti con questa teoria nel frame di Jordan e in quello di Einstein. La conclusione descrive in sintesi lo stato attuale delle osservazioni sperimentali e come queste abbiano un legame stretto con la teoria delle perturbazioni cosmologiche. In particolare, presentando i risultati ottenuti nel contesto dell’inflazione R^2 ed esponendo gli ultimi dati raccolti dall’esperimento Planck, si analizza come il modello sia in accordo con i dati sperimentali attualmente disponibili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato si presenta il teorema del viriale, introdotto per la prima volta da R. J. E. Clausius nel 1870. É una relazione fra energia cinetica e poteziale totali di un sistema che, se soddisfatta, implica che questo sia in equilibrio. Sono equivalenti le affermazioni: "sistema virializzato" e "sistema in equilibrio". Sebbene in ordine cronologico la prima formulazione del teorema sia stata quella in forma scalare, ricaveremo, per maggiore generalità, la forma tensoriale, dalla quale estrarremo quella scalare come caso particolare. Sono di nostro interesse i sistemi astrofisici dinamici autogravitanti costituiti da N particelle (intese come stelle, gas etc.), perciò la trattazione teorica è dedotta per tali configurazioni. In seguito ci concentreremo su alcune applicazioni astrofisiche. In primo luogo analizzeremo sistemi autogravitanti, per cui l'unica energia potenziale in gioco è quella dovuta a campi gravitazionali. Sarà quindi ricavato il limite di Jeans per l'instabilità gravitazionale, con conseguente descrizione del processo di formazione stellare, la stima della quantità di materia oscura in questi sistemi e il motivo dello schiacciamento delle galassie ellittiche. Successivamente introdurremo nell'energia potenziale un termine dovuto al campo magnetico, seguendo il lavoro di Fermi e Chandrasekhar, andando a vedere come si modifica il teorema e quali sono le implicazioni nella stabilità delle strutture stellari. Per motivi di spazio, queste trattazioni saranno presentate in termini generali e con approssimazioni, non potendo approfondire casi più specifici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ottica di un futuro riprogetto, totale o parziale, del ventilatore della galleria del vento del progetto CICLoPE dell'Università di Bologna, è stato messo a punto, grazie a modelli matematici di letteratura, un algoritmo per la determinazione della geometria delle pale di un fan. La procedura si basa su ipotesi di incompressibilità e assenza di vortici di estremità ed è in grado di fornire la geometria del ventilatore una volta che sono state fissate: le condizioni richieste nella sezione di test, l'efficienza del tunnel e alcune proprietà del ventilatore stesso (ad esempio tipologia di profilo aerodinamico e numero di pale). L'algoritmo è in grado di lavorare solamente con la configurazione ventilatore seguito da profili raddrizzatori, ma è in previsione un'estensione che consentirà di studiare anche la configurazione a fan controrotanti (come quella del CICLoPE). Con questo software sono state progettate numerose soluzioni diverse per studiare il legame tra rendimento e geometria del ventilatore. Inoltre sono stati individuati i parametri che permettono di ottenere una pala con rastremazione e svergolatura trascurabili, con lo scopo di abbassare i costi del manufatto. In particolare è stato dimostrato come le configurazioni con diametro della nacelle grande (superiore al 65\% del diametro della sezione di potenza) siano particolarmente adatte a fornire rendimenti alti con la minima complicatezza della pala. Per quanto riguarda l'efficienza aerodinamica del profilo, i test comparativi indicano che questo parametro influisce relativamente poco sul rendimento del macchinario ma modifica profondamente la geometria della pala. Efficienze elevate tendono, secondo lo studio, a richiedere pale estremamente rastremate e poco svergolate; questo porta a preferire l'adozione di profili mediamente efficienti ma dall'ampio intervallo operativo in termini di angolo di attacco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obbiettivo di questa tesi è quello di studiare alcune proprietà statistiche di un random walk su network. Dopo aver definito il concetto di network e di random walk su network, sono state studiate le caratteristiche dello stato stazionario di questo sistema, la loro dipendenza dalla topologia della rete e l'andamento del sistema verso l'equilibrio, con particolare interesse per la distribuzione delle fluttuazioni delle popolazioni sui differenti nodi, una volta raggiunto lo stato stazionario. In seguito, si è voluto osservare il comportamento del network sottoposto ad una forzatura costante, rappresentata da sorgenti e pozzi applicati in diversi nodi, e quindi la sua suscettività a perturbazioni esterne. Tramite alcune simulazioni al computer, viene provato che una forzatura esterna modifica in modo diverso lo stato del network in base alla topologia di quest'ultimo. Dai risultati si è trovato quali sono i nodi che, una volta perturbati, sono in grado di cambiare ampiamente lo stato generale del sistema e quali lo influenzano in minima parte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le proprietà reologiche degli alimenti cremosi a fini medici speciali, come quelli per l’alimentazione dei pazienti disfagici, sono influenzate dalla formulazione e dalle tecnologie di produzione. Gli obiettivi di questa tesi, sono stati i seguenti: - individuazione di metodi e parametri reologici empirico-imitativi per la caratterizzazione di campioni di creme alimentari; - studio dell’effetto di differenti quantità di addensante sulle caratteristiche reologiche di creme alimentari; - studio dell’effetto della conservazione in regime di refrigerazione (4° C) o surgelazione (-18°C) sulle caratteristiche reologiche di differenti creme alimentari. Questo al fine di approfondire la conoscenza di tali aspetti per ottimizzare le modalità di produzione e conservazione di differenti creme alimentari destinate all’alimentazione di pazienti disfagici. Dai risultati ottenuti è emerso come tra i metodi ed i parametri empirico-imitativi considerati, quello che sembra essere risultato più idoneo per la determinazione rapida delle caratteristiche di viscosità dei campioni di creme alimentari analizzati è risultato il parametro coesività valutato con test di back extrusion. Per la natura pseudo-plastica dei campioni analizzati, contrariamente a quanto indicato dal produttore, l’utilizzo del viscosimetro vibrazionale non è risultato essere ottimale, per l’instabilità della misura legata alla modifica più o meno importante della viscosità dei sistemi analizzati causata dall’azione delle onde sonore generate dal probe. La caratterizzazione reologica delle creme con differenti contenuti di addensante ha permesso di creare delle cinetiche legate alla modifica delle caratteristiche reologiche empirico-imitative dei sistemi in funzione della quantità di addensate aggiunto. Correlando tali informazioni con il livello di accettazione dei prodotti da parte del paziente disfagico sarà possibile creare degli standard produttivi reologici per la preparazione di prodotti idonei alla sua alimentazione. Le differenti temperature di conservazione dei prodotti, in regime di refrigerazione o congelamento, sembrano non aver influenzato le caratteristiche reologiche delle creme analizzate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per “effetto domino” si intende uno scenario incidentale in cui un evento primario si propaga ad apparecchiature contigue tramite un vettore di impatto, con innesco di eventi incidentali secondari ed amplificazione delle conseguenze finali dell’incidente. Nei casi di maggior gravità gli effetti di scenari incidentali di questo tipo possono danneggiare contemporaneamente più impianti appartenenti allo stesso stabilimento oppure addirittura coinvolgere più stabilimenti. Gli incidenti dovuti ad effetto domino sono tra i più severi e complessi che possono avere luogo nell’industria di processo; la complessità che contraddistingue l’effetto domino influenza anche la definizione stessa del fenomeno e ne rende difficoltosa l’individuazione delle caratteristiche principali. È comunque condivisa l’idea che, perché uno scenario incidentale evolva con effetto domino, sia necessario l’elemento “propagazione”, ovvero lo sviluppo di uno o più scenari secondari causati dall’incidente iniziale con un aggravio dell’area di danno rispetto a quella connessa allo scenario incidentale iniziale. L’effetto domino è un argomento di grande interesse nell’ambito della valutazione del rischio di incidente rilevante, sia a causa dell’elevato rischio connesso alla sequenza di eventi incidentali che esso comporta, sia dell’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. La Direttiva Europea 2012/18/UE (la cosiddetta Direttiva Seveso III) ed il suo recente recepimento italiano, il D.Lgs. 105/2015, stabiliscono la necessità di valutare l’effetto domino tra stabilimenti, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. Tuttavia anche la valutazione dell’effetto domino all’interno dei singoli stabilimenti è importante, potendo essa rappresentare, da un certo punto di vista, il completamento dell’analisi di sicurezza dello stabilimento. In un contesto come quello dell’analisi del rischio di incidente rilevante, in corrispondenza dell’aggiornamento quinquennale del Rapporto di Sicurezza di stabilimento richiesto dalle norme di legge, nel presente lavoro di tesi è stata effettuata la valutazione dell’effetto domino intra-stabilimento per un sito a rischio di incidente, applicando la metodologia proposta nell’Allegato E del D.Lgs. 105/2015.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel redarre la tesi si è perseguito l'intento di illustrare la teoria alla base delle onde gravitazionali e dei metodi che ne consentono la rivelazione. È bene tenere presente che con il seguente elaborato non si sta proponendo, in alcun modo, una lettura da sostituire ad un testo didattico. Pur tuttavia, si è cercato di presentare gli argomenti in maniera tale da emulare l'itinerario formativo di uno studente che, per la prima volta, si approcci alle nozioni, non immediatamente intuitive, ivi descritte. Quindi, ogni capitolo è da interpretarsi come un passo verso la comprensione dei meccanismi fisici che regolano produzione, propagazione ed infine rivelazione delle perturbazioni di gravità. Dopo una concisa introduzione, il primo capitolo si apre con il proposito di riepilogare i concetti basilari di geometria differenziale e relatività generale, gli stessi che hanno portato Einstein ad enunciare le famose equazioni di campo. Nel secondo si introduce, come ipotesi di lavoro standard, l'approssimazione di campo debole. Sotto questa condizione al contorno, per mezzo delle trasformazioni dello sfondo di Lorentz e di gauge, si manipolano le equazioni di Einstein, ottenendo la legge di gravitazione universale newtoniana. Il terzo capitolo sfrutta le analogie tra equazioni di campo elettromagnetiche ed einsteiniane, mostrando con quanta naturalezza sia possibile dedurre l'esistenza delle onde gravitazionali. Successivamente ad averne elencato le proprietà, si affronta il problema della loro propagazione e generazione, rimanendo sempre in condizioni di linearizzazione. È poi la volta del quarto ed ultimo capitolo. Qui si avvia una dissertazione sui processi che acconsentono alla misurazione delle ampiezze delle radiazioni di gravità, esibendo le idee chiave che hanno condotto alla costruzione di interferometri all'avanguardia come LIGO. Il testo termina con uno sguardo alle recenti scoperte e alle aspettative future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del progetto Bird-A è di mettere a disposizione uno strumento basato su ontologie per progettare un'interfaccia web collaborativa di creazione, visualizzazione, modifica e cancellazione di dati RDF e di fornirne una prima implementazione funzionante. La visione che sta muovendo la comunità del web semantico negli ultimi anni è quella di creare un Web basato su dati strutturati tra loro collegati, più che su documenti. Questo modello di architettura prende il nome di Linked Data ed è basata sulla possibilità di considerare cose, concetti, persone come risorse identificabili tramite URI e di poter fornire informazioni e descrivere collegamenti tra queste risorse attraverso l'uso di formati standard come RDF. Ciò che ha però frenato la diffusione di questi dati strutturati ed interconnessi sono stati gli alti requisiti di competenze tecniche necessarie sia alla loro creazione che alla loro fruizione. Il progetto Bird-A si prefigge di semplificare la creazione e la fruizione di dati RDF, favorendone la condivisione e la diffusione anche fra persone non dotate di conoscenze tecniche specifiche.