366 resultados para curve su campi finiti, funzione zeta, anelli quadratici, numero di classi, congetture di Gauss.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi abbiamo studiato il comportamento delle entropie di Entanglement e dello spettro di Entanglement nel modello XYZ attraverso delle simulazioni numeriche. Le formule per le entropie di Von Neumann e di Renyi nel caso di una catena bipartita infinita esistevano già, ma mancavano ancora dei test numerici dettagliati. Inoltre, rispetto alla formula per l'Entropia di Entanglement di J. Cardy e P. Calabrese per sistemi non critici, tali relazioni presentano delle correzioni che non hanno ancora una spiegazione analitica: i risultati delle simulazioni numeriche ne hanno confermato la presenza. Abbiamo inoltre testato l'ipotesi che lo Schmidt Gap sia proporzionale a uno dei parametri d'ordine della teoria, e infine abbiamo simulato numericamente l'andamento delle Entropie e dello spettro di Entanglement in funzione della lunghezza della catena di spin. Ciò è stato possibile solo introducendo dei campi magnetici ''ad hoc'' nella catena, con la proprietà che l'andamento delle suddette quantità varia a seconda di come vengono disposti tali campi. Abbiamo quindi discusso i vari risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si descrivono la funzione zeta di Riemann, la costante di Eulero-Mascheroni e la funzione gamma di Eulero. Si riportano i legami tra questi e si illustra brevemente l'ipotesi di Riemann degli zeri non banali della funzione zeta, ovvero l'ipotesi della distribuzione dei numeri primi nella retta dei numeri reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Veicolo desertico ad altissima velocità con motorizzazione ibrida e continua.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricostruzione dettagliata dell’architettura stratigrafica e delle facies delle successioni tardo-quaternarie sepolte al di sotto delle pianure alluvionali moderne sta assumendo un’importanza crescente come strumento per le ricostruzioni paleoambientali e paleoclimatiche e per la correlazione dei sistemi deposizionali continentali e costieri, finalizzata alla caratterizzazione geometrica di corpi sedimentari che rappresentano potenziali serbatoi. Un impulso significativo verso la caratterizzazione dell’architettura stratigrafica dei depositi tardo-quaternari del Bacino Padano è stato fornito, negli ultimi quindici anni, da un’intensa campagna di perforazioni operata dal Servizio Geologico, Sismico e dei Suoli di Regione Emilia-Romagna, nell’ambito della realizzazione della Carta geologica d’Italia in scala 1:50.000. Tuttavia, per ottenere un numero sufficiente di informazioni stratigrafiche è necessario un dataset molto esteso e le perforazioni (sondaggi a carotaggio continuo) presentano costi estremamente elevati. I limiti operativi delle descrizioni dei sondaggi a carotaggio continuo possono essere superati utilizzando metodi indiretti che si basano sullo sfruttamento delle proprietà geotecniche dei depositi tardo-quaternari. In questo lavoro di tesi l’analisi delle caratteristiche geotecniche delle prove CPTU è stata sfruttata per caratterizzare le associazioni di facies della Pianura Padana centrale. Una dettagliata analisi dei log stratigrafici e, in particolare, delle curve di resistenza delle prove CPTU inserite nelle sezioni, la costruzione di sezioni stratigrafiche e un meticoloso lavoro di correlazione basato su 19 datazioni radiometriche, ha rivelato una serie di paleosuoli (inceptisuoli) impilati nei 50-60 m più superficiali della successione tardo-quaternaria della Pianura Padana centrale; questi paleosuoli rappresentano l’unico marker stratigrafico all’interno di una successione costituita prevalentemente da depositi argillosi uniformi. L’analisi delle caratteristiche geotecniche di alcuni paleosuoli e dei loro rapporti con la channel belt del Fiume Po risulta fondamentale per comprendere l’evoluzione recente del Bacino Padano e le caratteristiche geometriche dei corpi sedimentari finalizzata allo sfruttamento di potenziali risorse fluide sotterranee.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In ecologia della pesca, i fattori o indicatori della “condizione” di un organismo forniscono molte informazioni sulle caratteristiche di adattamento dei pesci all’ambiente e sul loro ruolo nell’ecosistema. La “condizione” include molte caratteristiche strutturali ed energetiche che possono variare in funzione dell’ontogenesi, del ciclo riproduttivo, ma anche in funzione delle caratteristiche dell’ambiente, incluso il grado di stress al quale è sottoposta una specie (es. la pressione di pesca). L’obiettivo del presente studio sperimentale è stato valutare eventuali differenze nell’abbondanza, nei parametri di popolazione, nella struttura demografica e negli indicatori di “condizione” di due specie, Merluccius merluccius (Pisces: Gadiformes) e Galeus melastomus (Pisces: Carcharhiniformes), in due diverse aree: Toscana settentrionale e meridionale, differenti per caratteristiche ambientali e pressione di pesca. Nella prima parte dell’analisi, sono stati confrontati gli indici di densità e biomassa, la struttura di taglia delle due popolazioni, su dati estratti dagli archivi storici delle campagne di pesca sperimentale MEDITS dal 1994 al 2013. Nella seconda parte dell’analisi invece, sono stati analizzati 1000 individui provenienti dalla campagna MEDITS 2014, integrati con campioni provenienti dallo sbarcato commerciale per il biennio 2014-2015. Gli individui di M. merluccius sono stati ripartiti in due classi di taglia (I = individui ≤ 18 cm LT; II = individui > 18 cm LT), quelli di G. melastomus in tre classi di taglia (I = individui ≤ 20 cm LT; II = individui 20 cm< x ≤ 35 cm LT; III= individui > 35 cm LT), suddivisi rispettivamente in 50 maschi e 50 femmine, per ogni classe. E’ stato condotto lo studio della crescita relativa attraverso l’analisi della relazione taglia/peso e lo studio della condizione tramite i seguenti indicatori: il fattore K di Fulton, l’indice epatosomatico (HSI) e l’indice gonadosomatico (GSI). I risultati di questa tesi hanno evidenziato differenze nei popolamenti, riconducibili alle diverse condizioni ambientali e alla pressione di pesca, tra le due aree indagate. L’area sud, interessata da un più intenso sforzo di pesca esercitato sui fondali della piattaforma e della scarpata continentale e da una morfologia del fondale differente, mostra una diversità in termini di crescita relativa e stato della “condizione”, che risulta più elevata in entrambe le specie, rispetto all’area settentrionale, caratterizzata invece da uno sforzo di pesca meno intenso, incentrato sull’ampia piattaforma continentale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi viene presentata una introduzione generale all'Internet of Things, gli utilizzi che ne vengono fatti attualmente e le eventuali modifiche che verranno apportate in futuro, inoltre vengono presentati i problemi che ne derivano e le soluzioni che attualmente risolvono questi problemi. E' presente una introduzione al protocollo presentato da IBM MQTT che attualmente rappresenta uno standard in questo campo. In seguito vengono mostrati i requisiti e le fasi di progettazione di un sistema domotico, quali sono i suoi principali utilizzi quali i vantaggi e i suoi svantaggi. E' presente una introduzione ai dispositivi maggiormente usati per la realizzazione di sistemi del genere, con le loro caratteristiche, in particolare di dispositivi Arduino e Raspberry Pi. Viene mostrato l'uso del protocollo mqtt per la comunicazione tra dispositivi Raspberry Pi e client Android. In fine viene mostrata una realizzazione di un sistema di domotica attraverso l'uso di questo protocollo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I lantibiotici sono molecole peptidiche prodotte da un gran numero di batteri Gram-positivi, posseggono attività antibatterica contro un ampio spettro di germi, e rappresentano una potenziale soluzione alla crescente problematica dei patogeni multi-resistenti. La loro attività consiste nel legame alla membrana del bersaglio, che viene quindi destabilizzata mediante l’induzione di pori che determinano la morte del patogeno. Tipicamente i lantibiotici sono formati da un “leader-peptide” e da un “core-peptide”. Il primo è necessario per il riconoscimento della molecola da parte di enzimi che effettuano modifiche post-traduzionali del secondo - che sarà la regione con attività battericida una volta scissa dal “leader-peptide”. Le modifiche post-traduzionali anticipate determinano il contenuto di amminoacidi lantionina (Lan) e metil-lantionina (MeLan), caratterizzati dalla presenza di ponti-tioetere che conferiscono maggior resistenza contro le proteasi, e permettono di aggirare la principale limitazione all’uso dei peptidi in ambito terapeutico. La nisina è il lantibiotico più studiato e caratterizzato, prodotto dal batterio L. lactis che è stato utilizzato per oltre venti anni nell’industria alimentare. La nisina è un peptide lungo 34 amminoacidi, che contiene anelli di lantionina e metil-lantionina, introdotti dall’azione degli enzimi nisB e nisC, mentre il taglio del “leader-peptide” è svolto dall’enzima nisP. Questo elaborato affronta l’ingegnerizzazione della sintesi e della modifica di lantibiotici nel batterio E.coli. In particolare si affronta l’implementazione dell’espressione eterologa in E.coli del lantibiotico cinnamicina, prodotto in natura dal batterio Streptomyces cinnamoneus. Questo particolare lantibiotico, lungo diciannove amminoacidi dopo il taglio del leader, subisce modifiche da parte dell’enzima CinM, responsabile dell’introduzione degli aminoacidi Lan e MeLan, dell’enzima CinX responsabile dell’idrossilazione dell’acido aspartico (Asp), e infine dell’enzima cinorf7 deputato all’introduzione del ponte di lisinoalanina (Lal). Una volta confermata l’attività della cinnamicina e di conseguenza quella dell’enzima CinM, si è deciso di tentare la modifica della nisina da parte di CinM. A tal proposito è stato necessario progettare un gene sintetico che codifica nisina con un leader chimerico, formato cioè dalla fusione del leader della cinnamicina e del leader della nisina. Il prodotto finale, dopo il taglio del leader da parte di nisP, è una nisina completamente modificata. Questo risultato ne permette però la modifica utilizzando un solo enzima invece di due, riducendo il carico metabolico sul batterio che la produce, e inoltre apre la strada all’utilizzo di CinM per la modifica di altri lantibiotici seguendo lo stesso approccio, nonché all’introduzione del ponte di lisinoalanina, in quanto l’enzima cinorf7 necessita della presenza di CinM per svolgere la sua funzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato descrive il lavoro svolto in cinque mesi presso il Centro Protesi INAIL di Budrio (BO), che ha portato allo sviluppo di un banco prova per testare articolazioni elettromeccaniche. I dispositivi target, in particolare, sono stati due gomiti mioelettrici: il primo di produzione interna INAIL e il secondo prodotto da Selex ES in collaborazione con il Centro Protesi stesso. Per il controllo del movimento e l'acquisizione dei segnali elettrici si è scelto il PAC CompactRIO (National Instruments), mentre per le acquisizioni cinematiche di angolo e velocità angolare si è sfruttata la stereofotogrammetria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi introduce alla teoria delle rappresentazioni dei gruppi finiti. Il primo capitolo mostra che lo studio delle rappresentazioni di un dato gruppo può essere ridotto a quello delle rappresentazioni irriducibili. Il secondo capitolo, utilizzando la teoria del carattere, determina il numero di rappresentazioni irriducibili del gruppo. Il terzo capitolo, attraverso l'algebra di gruppo, individua alcune proprietà della dimensione delle rappresentazioni irriducibili. Infine, nell'ultimo capitolo, vengono trattate le rappresentazioni irriducibili dei gruppi simmetrici S_3 e S_4.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il grafene è un cristallo bidimensionale composto da uno strato monoatomico planare di atomi di carbonio ibridizzati sp2. In ogni modo, il perfezionamento delle tecniche di produzione e di trasferimento del materiale è a tutt’oggi una attività di ricerca alla frontiera, e in questo contesto si è inserito il mio lavoro di tesi. Svolto nella sede di Bologna dell’Istituto per la Microelettronica ed i Microsistemi del Consiglio Nazionale delle Ricerche (IMM-CNR), ha avuto un duplice obiettivo. Il primo è stato quello di studiare la procedura di trasferimento su un wafer di ossido di silicio (SiO2) del grafene cresciuto per deposizione chimica da fase vapore (chemical vapor deposition) su rame normalmente impiegata in laboratorio. Il secondo è stato invece quello di proporre e verificare possibili modifiche con lo scopo di provare a risolvere uno dei problemi che ci si è trovati ad affrontare, nello specifico l’elevato numero di danni strutturali e di rotture indotti nella membrana trasferita. Dopo un capitolo iniziale di introduzione alla teoria ed alle proprietà fisiche del grafene, nel secondo verranno illustrate le tecniche principali con le quali attualmente si produce il materiale, con un focus particolare sulla chemical vapor deposition, tecnica impiegata all’IMM, e da me seguita per la produzione dei campioni da studiare. Il terzo capitolo tratterà nel dettaglio il processo di trasferimento dal substrato di crescita a quello finale, realizzato attraverso uno strato sacrificale di PMMA. Dopo una descrizione approfondita dei singoli passaggi, verrà mostrato il confronto tra i risultati ottenuti su campioni di grafene traferiti su ossido di silicio, con la tecnica inizialmente adottata e quella modificata. Come verrà discusso, nonostante non tutti problemi siano stati risolti, le modifiche apportante al processo di trasferimento hanno permesso di raggiungere l’obiettivo iniziale, cioè di migliorare in modo apprezzabile la qualità della pellicola dal punto di vista dell’integrità strutturale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.