550 resultados para trasformazioni naturali sottocategorie riflessive


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è illustrare il paradigma dell’inflazione cosmologica descrivendo in particolare la teoria dell’inflazione R^2. In una prima sezione si fa riferimento al contesto della relatività generale per descrivere l’universo su larga scala. Vengono prese in esame le ipotesi utilizzate per ottenere il modello standard della cosmologia e le principali proprietà che da esso possono essere ricavate. Si focalizza quindi l’analisi sulla descrizione dell’universo primordiale da cui traggono origine le ipotesi dell’esistenza dell’epoca inflazionaria esponendo, in particolare, come questa teoria riesca a risolvere i problemi della piattezza e dell’orizzonte cosmologico. Viene poi descritto come la fase di espansione esponenziale richiesta da queste ipotesi possa essere generata dalla presenza di un campo scalare φ specifico. Particolare risalto è dato alla descrizione dell’approssimazione di ”slow-roll” ed ai vincoli sul numero di ”e-folding”. Una seconda sezione mostra l’applicazione dell’analisi generale esposta in precedenza al modello di inflazione di Starobinsky. A tal fine sono descritte le caratteristiche delle teorie della gravità f(R) con particolare attenzione alle trasformazioni conformi e scelta del frame. Attraverso l’esposizione delle equazioni di campo cosmologiche nella teoria della gravità R^2 si mostra come il processo di espansione inflazionaria dell’universo nelle sue fasi iniziali possa essere descritto da un comportamento non standard della gravità ad alte energie. Sono riportati i risultati principali ottenuti con questa teoria nel frame di Jordan e in quello di Einstein. La conclusione descrive in sintesi lo stato attuale delle osservazioni sperimentali e come queste abbiano un legame stretto con la teoria delle perturbazioni cosmologiche. In particolare, presentando i risultati ottenuti nel contesto dell’inflazione R^2 ed esponendo gli ultimi dati raccolti dall’esperimento Planck, si analizza come il modello sia in accordo con i dati sperimentali attualmente disponibili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quando avvengono disastri naturali, spesso la copertura dati viene a mancare e le infrastutture o sono danneggiate o sono sovraccariche; in questo modo è difficile comunicare sia da parte delle persone che hanno bisogno di aiuto, sia da parte dei soccorritori che cercano di organizzare i soccorsi. Con questa tesi si è voluto realizzare un'applicazione Android che permetta agli utenti di segnalare il proprio bisogno di aiuto, anche se il device non ha una connessione internet attiva. L'applicazione, sfruttando il Wi-Fi e il Wi-Fi Direct, cercherà di formare una rete di dispositivi, attraverso la quale i messaggi di aiuto degli utenti verranno scambiati tra i device. Questa rete, man mano, si allargherà fino ad arrivare ad includere device che avranno una connessione dati attiva. Questi comunicheranno con il mio server, al quale manderanno tutti i messaggi che gli sono arrivati. I dati del server, ossia i messaggi che sono stati mandati dagli utenti, verranno mostrati sul sito ltw1528.web.cs.unibo.it. Attraverso questo sito, i soccorritori potranno vedere la posizione degli utenti in stato di bisogno, cosicché potranno mandarli un messaggio di soccorso, che si propagherà nella rete formatasi in precedenza, ed organizzare i soccorsi in maniera ottimale. Si è anche voluto fare uno studio simulativo per testare la scalabilità dell'applicazione e per raccogliere dati statistici, quali il delay medio tra l'arrivo del messaggio al device con connessione dati e il tempo in cui è stato creato, l'influenza sulla batteria del numero dei messaggi scambiati e il numero degli host, il delay tra il tempo di invio e il tempo di arrivo nello scambio di messaggi al variare del numero degli host.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di investigare, mediante un approccio puramente quantitativo, il contenuto informativo e la morfologia della lingua del manoscritto di Voynich (VMS), noto per essere redatto in un alfabeto sconosciuto e tuttora non decodificato. Per prima cosa, a partire dal concetto di entropia, sviluppato nel contesto della teoria della informazione, si costruisce una misura del contenuto informativo di un testo (misura di Montemurro-Zanette); quindi, si presentano diversi esperimenti in cui viene misurata l'informazione di testi sottoposti a trasformazioni linguistiche di vario genere(lemmatizzazione, traduzione, eccetera). In particolare, l'applicazione al VMS di questa misura unita ad altre tecniche, ci permette di indagare la struttura tematica del manoscritto e le relazioni tra i suoi contenuti, verificando che esiste una continuità semantica tra pagine consecutive appartenenti a una stessa sezione. La grande quantità di hapax nel manoscritto ci porta poi a considerazioni di tipo morfologico: suggerisce infatti che la lingua del manoscritto sia particolarmente flessiva. La ricerca, in particolare, di sequenze di hapax consecutivi, ci porta a identificare -verosimilmente- alcuni nomi propri. Proprio per approfondire la morfologia della lingua si costruisce infine un grafo linguistico basato sostanzialmente sulla distanza di Hamming; confrontando la topologia di questi grafi per alcune lingue e per la lingua del VMS si osserva che quest'ultimo si distingue per maggiore densità e connessione. Traendo le conclusioni, i forti indizi a favore della presenza di un contenuto informativo nel testo confermano l'ipotesi che questo sia scritto in una vera lingua. Tuttavia, data la notevole semplicità delle regole di costruzione morfologiche, a nostro parere non sembra assimilabile ad una lingua naturale conosciuta, ma piuttosto ad una artificiale, creata appositamente per questo testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante i processi di estrazione può avvenire la formazione spontanea d’idrati di gas naturali, i quali, agglomerandosi, possono ostruire le tubazioni. Inibire la formazione degli idrati è quindi di fondamentale importanza al fine di prevenire danni ambientali ed economici. In questo contesto abbiamo ritenuto interessante sintetizzare diversi copolimeri a struttura controllata con lo scopo di utilizzarli come inibitori d’idrati. In particolare, dopo aver ottimizzato la sintesi dell’omopolimero costituente il primo blocco mediante ATRP, questo è stato utilizzato come macroiniziatore per la successiva copolimerizzazione di tre altri monomeri a diversa polarità. L’efficienza d’inibizione di tutti i derivati copolimerici ottenuti è stata testata e confrontata con quella di additivi commerciali attualmente in uso mediante DSC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tra tutti i fenomeni naturali osservabili, ne era presente uno particolarmente interessante e con il quale si aveva diretto contatto quotidianamente: la gravità. Dopo le innumerevoli osservazioni astronomiche effettuate da Galileo, fu Newton nel diciassettesimo secolo a capire che il moto dei pianeti era governato dalle medesime leggi che descrivono la caduta dei gravi sulla Terra e fu quindi lui che ci fornì una prima teoria della gravità con la quale si spiegarono le orbite dei pianeti con ottima precisione. Grazie al contributo di Einstein, la teoria si rinnovò e si arricchì, ma rimase pur sempre lontana dall' essere completa, tant' è che ancora oggi sono presenti molte domande a cui non siamo in grado di rispondere. In questo articolo ci occuperemo di tali quesiti, provando a formulare una teoria che sia in accordo con le attuali evidenze sperimentali. Nella prima parte, tratteremo le ragioni che hanno spinto i ricercatori ad introdurre le nuove teorie della gravità f(R); in particolare vedremo la peculiarità delle curve di rotazione delle galassie e perché ci sia il bisogno di tirare in ballo la materia oscura. Discuteremo anche alcuni problemi derivanti dall' evoluzione cosmica e altre incongruenze riguardanti la stabilità delle stelle di neutroni. In seguito mostreremo come ricavare l' equazione di Einstein partendo dai principi variazionali di Hamilton, e estenderemo tale ragionamento con lo scopo di ottenere un' equazione corrispondente ad una gravità modificata. Infine, verranno introdotte le teorie della gravità f(R), per mezzo delle quali cercheremo di discutere alcune possibili spiegazioni alle problematiche mosse nella parte introduttiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro è stato svolto presso IEMCA, azienda attiva nel settore della produzione di caricatori automatici di barre, e si è composto a grandi linee di tre fasi. Nella prima di queste tre fasi è stata analizzata la strumentazione adatta ad eseguire i rilievi di vibrazioni disponibile in azienda con il fine di comprenderne le potenzialità. Questa prima parte del lavoro si è conclusa con il consolidamento di una buona conoscenza del software e dell'hardware a disposizione. Nella seconda fase ci si è concentrati invece sull'elaborazione di un metodo di analisi delle vibrazioni applicabile alle macchine prodotte da IEMCA. A questo scopo si è studiata la macchina denominata Master80Up con il fine di ricavare una procedura di indagine estendibile in futuro anche agli altri sistemi automatici prodotti da IEMCA. La scelta di questo particolare modello è discesa dall'essere in corso di aggiornamento nel momento particolare in cui si è svolto il lavoro. La seconda fase ha visto inizialmente l'elaborazione di un modello fisico della macchina, utilizzato poi nel seguito come supporto all'esecuzione dell'analisi della vibrazione libera della struttura che ha permesso di ottenere una stima qualitativa delle frequenze naturali e dei modi di vibrare del sistema. Nella terza fase infine si è ripetuta la procedura elaborata sulla versione aggiornata della macchina, denominata Master80HD, per verificare gli effetti di irrobustimenti strutturali studiati dall'ufficio tecnico i quali si sono rivelati utili in generale alla riduzione della vibrazione della macchina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si inserisce in un contesto di ricerca molto attuale, il quale, studia nuove procedure sintetiche sostenibili per la preparazione di strutture poliuretaniche. Partendo dall’etilene carbonato e dall’esametilendiammina, due molecole che possono essere ricavate da fonti rinnovabili, sono state ottimizzate la sintesi e la purificazione di un carbammato: bis(2-idrossietil)-esan-1,6-diildicarbammato (BHEDC), senza l’impiego di solventi ed in condizioni blande. Il BHEDC è conosciuto in letteratura, ma è poco studiato e non viene attualmente utilizzato come monomero. In questo lavoro il bis(2-idrossietil)-esan-1,6-diildicarbammato è stato polimerizzato in massa con diverse percentuali di bis(2-idrossietil)-tereftalato (BHET), il quale non è ricavabile da fonti naturali ma è ottenibile dal riciclo chimico del Poli-Etilene Tereftalato (PET). Sono state successivamente analizzate la struttura chimica e le proprietà termiche nonché spettroscopiche dei nuovi composti poliuretanici, così da poterne definire le correlazioni tra la struttura e le prestazioni finali. Infine, è stata messa a punto una procedura di tipo one-pot per la preparazione dei poliuretani sopra citati; questa prevede la sintesi diretta dei polimeri senza la necessità dello stadio di purificazione del bis(2-idrossietil)-esan-1,6-diildicarbammato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si inserisce nel recente filone di ricerca che ha lo scopo di studiare le strutture della Meccanica quantistica facendo impiego della geometria differenziale. In particolare, lo scopo della tesi è analizzare la geometria dello spazio degli stati quantistici puri e misti. Dopo aver riportato i risultati noti relativi a questo argomento, vengono calcolati esplicitamente il tensore metrico e la forma simplettica come parte reale e parte immaginaria del tensore di Fisher per le matrici densità 2×2 e 3×3. Quest’ultimo altro non é che la generalizzazione di uno strumento molto usato in Teoria dell’Informazione: l’Informazione di Fisher. Dal tensore di Fisher si può ottenere un tensore metrico non solo sulle orbite generate dall'azione del gruppo unitario ma anche su percorsi generati da trasformazioni non unitarie. Questo fatto apre la strada allo studio di tutti i percorsi possibili all'interno dello spazio delle matrici densità, che in questa tesi viene esplicitato per le matrici 2×2 e affrontato utilizzando il formalismo degli operatori di Kraus. Proprio grazie a questo formalismo viene introdotto il concetto di semi-gruppo dinamico che riflette la non invertibilità di evoluzioni non unitarie causate dall'interazione tra il sistema sotto esame e l’ambiente. Viene infine presentato uno schema per intraprendere la stessa analisi sulle matrici densità 3×3, e messe in evidenza le differenze con il caso 2×2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ci proponiamo di introdurre i risultati principali della teoria canonica delle perturbazioni. In particolare, studiamo la riduzione generale di sistemi unidimensionali e la teoria di Birkhoff nel caso multidimensionale. Come ulteriori sviluppi, descriviamo anche il teorema KAM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi introduce le basi della teoria della computazione quantistica, partendo da un approccio teorico-matematico al concetto di qubit per arrivare alla schematizzazione di alcuni circuiti per algoritmi quantistici, analizzando la differenza tra le porte logiche classiche e la loro versione quantistica. Segue poi una lista descrittiva di possibili applicazioni dei computer quantistici, divise per categorie, e i loro vantaggi rispetto ai computer classici. Tra le applicazioni rientrano la crittografia quantistica, gli algoritmi di fattorizzazione e del logaritmo discreto di Shor, il teletrasporto di informazione quantistica e molte altre. La parte più corposa della tesi riguarda le possibili implementazioni, ovvero come realizzare praticamente un computer quantistico rendendo entità fisiche i qubit. Di queste implementazioni vengono analizzati i vari aspetti necessari alla computazione quantistica, ovvero la creazione di stati iniziali, la misura di stati finali e le trasformazioni unitarie che rappresentano le porte logiche quantistiche. Infine vengono elencate le varie problematiche del modello preso in considerazione. Infine vengono citati alcuni esperimenti e modelli recenti che potrebbero vedere una realizzazione su scala industriale nei prossimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il seguente lavoro di tesi si propone un excursus dell’evoluzione della tecnica che ha permesso l’amplificazione del DNA in laboratorio, spiegandone i principi elementari di base. La scoperta che il DNA è il depositario dell’informazione genica ha aperto la strada a una nuova disciplina: la biologia molecolare, dove molte delle tecniche utilizzate limitano le funzioni naturali degli acidi nucleici. Dalla sua introduzione, la tecnologia PCR ha modificato il modo nel quale l’analisi del DNA viene condotta nei laboratori di ricerca e di diagnostica. Con lo scopo di rilevare direttamente sequenze genomiche specifiche in un campione biologico nasce l’esigenza di avere a disposizione metodologie con un’elevata soglia di sensibilità e specificità. Il primo capitolo di questo elaborato introduce la PCR nella sua prima formulazione. A partire da quantità estremamente ridotte di DNA, questa tecnica di amplificazione in vitro, consente di ottenere rapidamente milioni di molecole identiche della sequenza bersaglio di acido nucleico. A seguire, nel secondo capitolo, verrà trattata un’implementazione della PCR: la real-time PCR. La RT-PCR, introduce nuove opportunità poiché rende possibile la misurazione diretta e la quantificazione della reazione mentre è in atto. Con l’utilizzo di molecole fluorescenti che vengono incorporate nel prodotto in formazione o che si intercalano alla doppia elica, si può monitorare la formazione del prodotto di amplificazione in tempo reale seguendone l’assorbimento con un sistema spettrofotometrico, in un sistema automatizzato che provvede anche alle routine della PCR. Nel terzo e ultimo capitolo si analizza una nuova tecnologia recentemente commercializzata: la PCR in formato digitale. Verranno prese in esame essenzialmente due metodologie, la dPCR su chip e la ddPCR (Droplet Digital Polymerase Chain Reaction).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In collaborazione con la sezione di Bologna dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) si è dato il via ad un progetto mirato alla costruzione di nuove stazioni monitoranti. Stazioni che dovranno avere un basso impatto in termini di costi e consumi energetici, dando contemporaneamente la possibilità di essere pilotate a distanza. Quest’ultimo è un parametro fondamentale perché permetterebbe di interagire con la stazione anche durante il verificarsi di calamità naturali. Per giungere ad una soluzione si è quindi proceduto analizzando i possibili scenari e le soluzioni attualmente impiegate. Valutandone gli aspetti negativi e positivi. Successivamente, terminata la fase di documentazione, si è passati a vagliare le soluzioni tecnologiche attualmente disponibili sul mercato e ad assemblare un prototipo sperimentale. Non appena in possesso di una macchina sulla quale poter effettuare tutte le prove necessarie si è passati alla fase successiva. L’implementazione di test che potessero rappresentare al meglio una situazione reale. Da qui si è giunti ad una conclusione, tenendo in considerazione diversi fattori: le condizioni imposte dall’ambiente durante le operazioni di test ed i risultati ottenuti.