366 resultados para curve su campi finiti, funzione zeta, anelli quadratici, numero di classi, congetture di Gauss.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi abbiamo presentato il calcolo dell’Entropia di Entanglement di un sistema quantistico unidimensionale integrabile la cui rappresentazione statistica é data dal modello RSOS, il cui punto critico é una realizzazione su reticolo di tutti i modelli conformi minimali. Sfruttando l’integrabilitá di questi modelli, abbiamo svolto il calcolo utilizzando la tecnica delle Corner Transfer Matrices (CTM). Il risultato ottenuto si discosta leggermente dalla previsione di J. Cardy e P. Calabrese ricavata utilizzando la teoria dei campi conformi descriventi il punto critico. Questa differenza é stata imputata alla non-unitarietá del modello studiato, in quanto la tecnica CTM studia il ground state, mentre la previsione di Cardy e Calabrese si focalizza sul vuoto conforme del modello: nel caso dei sistemi non-unitari questi due stati non coincidono, ma possono essere visti come eccitazioni l’uno dell’altro. Dato che l’Entanglement é un fenomeno genuinamente quantistico e il modello RSOS descrive un sistema statistico classico bidimensionale, abbiamo proposto una Hamiltoniana quantistica unidimensionale integrabile la cui rappresentazione statistica é data dal modello RSOS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d’oggi, la produzione di energia e di molecole di base per l’industria chimica è completamente dipendente da risorse non rinnovabili come petrolio, carbone e gas naturale ; con tali risorse in via di esaurimento e la sempre crescente domanda di energia e materiali da parte di tutte le economie, risulta obbligatorio sviluppare tecniche per la loro produzione da risorse rinnovabili. Le biomasse, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perché la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Tuttavia, ad oggi, lo sfruttamento di queste fonti risulta ancora sfavorito economicamente a causa di processi industriali non ancora ottimizzati, i cui costi si ripercuotono sul prodotto finale. Le molecole derivanti dagli scarti lignocellulosici possono essere usate come molecole di partenza per industrie chimiche di qualsiasi tipo, da quelle farmaceutiche a quelle plastiche. Queste molecole sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti . Una delle molecole “piattaforma” identificate tra le più importanti per la produzione di diversi prodotti chimici, risulta essere il 5-idrossimetilfurfurale (HMF) , derivante dalla disidratazione di polisaccaridi esosi, da cui si può ottenere tramite ossidazione selettiva, l’acido 2,5-furandicarbossilico (FDCA), potenziale sostituto dell’acido tereftalico nella produzione del PET e molti altri prodotti. Lo scopo di questo lavoro di tesi è stato lo studio della reattività di catalizzatori a base di Pd e Au/Pd utilizzati nella reazione di ossidazione dell’HMF a FDCA. Il lavoro svolto ha avuto come obiettivi principali: • L’ottimizzazione della sintesi di nanoparticelle di Pd e Au/Pd a diverso rapporto molare, e la caratterizzazione delle sospensioni ottenute mediante analisi DLS, XRD e TEM. • La preparazione di catalizzatori supportati su TiO2 e la caratterizzazione dei catalizzatori ottenuti tramite analisi BET, TEM e analisi termiche TGA/DSC. • Lo studio dell’attività catalitica dei catalizzatori preparati nell’ossidazione selettiva in fase liquida del 5-idrossimetilfurfurale (HMF) ad acido 2,5-furandicarbossilico (FDCA) e del meccanismo di reazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi sperimentale è quello di effettuare una reazione di addizione coniugata di Michael di sistemi 1,3-dicarbonilici atroposelettiva su substrati maleimmidici oppurtanamente sostituiti, catalizzata da derivati di alcaloidi naturali della Cinchona. Tale processo risulta importante ed innovativo in quanto si vuole ottenere una reazione di desimmetrizzazione atroposelettiva, contemporaneamente dell'asse prochirale e dei due atomi di carbonio del doppio legame della maleimmide stessa. Partendo dalla reazione di addizione del 2-acetilciclopetanone sulla (N-(2-tert- Butil)fenil)maleimmide, mediante reazioni di screening sono state determinate le condizioni ottimali. Si è poi proceduto a verificare l'estendibilità della reazione verso differenti substrati. Infine si è verificata la stabilità dell'asse di rotazione bloccato neosintetizzato. La sintesi di tali composti è importante per la possibilità di poter successivamente derivatizzare i gruppi sostituenti, in modo da creare building blocks per lo sviluppo di molecole ben più complesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alcuni ricercatori del Dipartimento di Fisica e Astronomia di Bologna hanno di recente ottenuto una curva che descrive l’andamento della mobilità in funzione della temperatura a seguito di misure effettuate su un cristallo organico di rubicene che mostra un’interdipendenza delle due variabili molto particolare. Il mio compito è stato cercare di far luce sulle peculiarità di questa curva. Per fare questo mi sono servita di due articoli, frutto di un attuale studio condotto da tre ricercatori dell’Università di Napoli, che ho riportato nel secondo e nel terzo capitolo, che hanno cercato di spiegare il comportamento atipico della mobilità in funzione della temperatura in cristalli organici semiconduttori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea è stata redatta presso l’azienda Sacmi Imola S.C. ed in particolare all’interno della divisione Closures, che si occupa della progettazione e della realizzazione di linee per la produzione di varie tipologie di capsule. Lo scopo dell’elaborato è descrivere lo sviluppo di un sistema di tracciabilità di prodotto; sistemi di questo tipo, adottati inizialmente nel settore alimentare, stanno acquisendo sempre maggiore importanza anche in altri campi produttivi, poiché rivestono un ruolo strategico al fine della realizzazione di prodotti caratterizzati da livelli elevati di performance e di qualità, capaci di emergere nel mercato moderno caratterizzato da una concorrenza estesa a livello mondiale e molto attento alle esigenze dei clienti. Nel caso specifico di Sacmi il sistema di tracciabilità si rivolge ad una pressa, la CCM (Continuous Compression Moulder), realizzata dall’azienda per la produzione di capsule in materiale termoplastico tramite la tecnologia dello stampaggio a compressione. In particolare il sistema si concentra sugli stampi della macchina CCM, i quali ne rappresentano gli elementi critici dal punto di vista sia tecnico che economico. A livello generale, un sistema di tracciabilità è costituito da due componenti fondamentali: il primo è un sistema di identificazione che permetta di rendere distinguibili ed individuabili le unità da tracciare, mentre il secondo è un sistema di raccolta dati in grado di raccogliere le informazioni desiderate. Queste sono poi archiviate in un apposito database ed attribuite alle entità corrispondenti sfruttando le proprietà del sistema di identificazione. Il primo passo da compiere quando si intende sviluppare un sistema di tracciabilità all’interno di un contesto produttivo già consolidato è la ricostruzione del processo produttivo presente in azienda: si tratta di individuare tutti gli enti aziendali che concorrono al processo e che saranno interessati dall’introduzione del nuovo sistema. Una volta definiti gli attori, è necessario anche capire come questi siano collegati dai flussi di materiale e di informazioni. Il processo produttivo di Sacmi era caratterizzato dalla quasi totale assenza di un flusso strutturato di informazioni a supporto di quello di materiale, ed il sistema di tracciabilità ha provveduto a colmare proprio questa mancanza. Il sistema deve essere in grado di integrarsi perfettamente nel contesto produttivo aziendale: è necessario trovare il giusto compromesso per quanto riguarda la quantità di informazioni da raccogliere, che devono garantire una corretta copertura di tutto il processo senza però appesantirlo eccessivamente. E’ bene che la raccolta dati sia basata su procedure standard che assicurino la ripetibilità delle operazioni di prelievo delle informazioni. Come è logico immaginarsi, l’introduzione di numerose novità nell’ambito di un contesto già strutturato ha fatto emergere un certo numero di problematiche, come ad esempio difficoltà nello stoccaggio e ritardi di produzione; queste devono essere risolte chiedendo uno sforzo aggiuntivo agli enti interessati o, nel medio/lungo periodo, evolvendo ed affinando il sistema con soluzioni più snelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi si è posto i seguenti obiettivi: - Analizzare come i singoli parametri infuenzano le prestazioni del modello, in maniera tale da capire su quali di essi il modello risulta essere più sensibile, al fine di ottimizzare le sue prestazioni; - Fare in modo che l'intervallo di confidenza del modello sia il più vicino possibile a quello dello strumento di misura utilizzato durante lo studio clinico \Socrathe(3 mmol/l). Riuscire a portare, infatti, la deviazione standard sull'errore globale ottenuta dal modello da 1,83 mmol/l a 1,50 mmol/l significa avere un IC95% uguale a quello dello strumento di misura; - Migliorare la predizione del modello negli istanti temporali in cui esso si discosta di più dal valore vero. Una volta messi in evidenza i parametri più significativi, grazie all'analisi di sensitività, si andrà ad effettuare una procedura di ottimizzazione di tali parametri al fine di minimizzare una funzione costo rappresentante il grado di scarto tra modello e realtà. La struttura della tesi consta di tre capitoli: il primo rigurda una introduzione alle funzioni del rene e alle terapie dialitiche, il secondo rigurda gli strumenti e i metodi utilizzato in questo lavoro, mentre il terzo capitolo illustra i risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi dell'installazione di un banco prova di trazione su funi in una azienda, della sua messa a punto e di un primo collaudo svolto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene mostrata l'uguaglianza tra la dimensione di un anello affine, definita come grado di trascendenza del suo campo delle frazioni sul campo base, e il grado del polinomio di Hilbert associato alla sua localizzazione rispetto a un qualsiasi ideale massimale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per eseguire dei test automatizzati su una moto posta su banco a rulli, è necessario un software che permetta di gestire determinati attuatori sulla moto, in modo da poter simulare le condizioni di guida desiderate. Nel modello preso in esame, sono stati utilizzati Simulink e NI VeriStand. Simulink è un ambiente grafico di simulazione e analisi di sistemi dinamici completamente integrato con Matlab, caratterizzato dalla tipica interfaccia a blocchi, che possono essere personalizzati o scelti dalla libreria. Ni VeriStand è invece un ambiente software che permette di elaborare modelli scritti in Simulink in real time. Il presente lavoro è stato incentrato proprio su quest’ultimo aspetto. Per prima cosa è stata esaminata a fondo la parte del modello in Simulink, dopo di che è stata valutata la possibilità di riscrivere alcune parti del modello con un’applicazione interna a Simulink (StateFlow), che si potrebbe prestare meglio a simulare la logica di controllo rispetto a com’è gestita attualmente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta della realizzazione e valutazione di un simulatore Web-Based i cui nodi sono connessi tramite Web Real Time Communication (WebRTC) e si testa la sua efficienza mediante la simulazione di un semplice modello di mobilità. Si espongono i principali concetti di simulazione e di WebRTC, fornendo le basi per una maggior comprensione del testo e delle scelte progettuali ed implementative. Si conclude con serie di test comparativi dell’applicativo mettendo in luce pregi e difetti di questo approccio alternativo alla simulazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro si affronta il tema della rilevazione fotometrica di esopianeti in transito attraverso la tecnica della fotometria differenziale e l'impiego di piccoli telescopi commerciali. Dopo un'introduzione sull'attuale stato della popolazione di esopianeti, verranno analizzati i sistemi extrasolari transitanti, da cui è possibile ricavare grandezze orbitali e fisiche che nessun altro metodo, attualmente, è in grado di garantire. Nella seconda parte verranno affrontate le problematiche relative alla rilevazione fotometrica dei transiti, sviluppando una tecnica di acquisizione e riduzione dei dati semplice, veloce e che possa allo stesso tempo garantire la precisione richiesta, di almeno 0.002 magnitudini. Questa verrà messa alla prova su due esopianeti che soddisfano le richieste di precisione sviluppate nel testo. Verrà dimostrato che con uno strumento da 0.25 m e una camera CCD commerciale, da cieli affetti da moderato inquinamento luminoso, è possibile ottenere curve di luce con una precisione dell'ordine di 0.001 magnitudini per astri con magnitudini comprese tra 8 e 13, comparabili con le accuratezze di strumenti di taglia professionale. Tale precisione è sufficiente per rilevare pianeti gioviani caldi e persino pianeti terrestri in transito attorno a stelle di classe M e dare un aiuto importante alla ricerca di punta. Questo verrà dimostrato presentando la sessione fotometrica con cui è stato scoperto il transito dell'esopianeta HD17156 b, il primo rilevato da strumentazione amatoriale. Con tecniche di ripresa simultanea attraverso setup identici è possibile aumentare la precisione di un fattore √N, dove N è il numero di telescopi impiegati in una sessione fotometrica, supposti raggiungere la stessa precisione. Tre strumenti come quello utilizzato nelle sessioni presentate nel testo sono sufficienti per garantire un campionamento temporale di almeno 0.13 dati/minuto e una precisione di 0.0006 magnitudini, ovvero di 500 ppm, non molto distante dal limite di 200 ppm attualmente raggiunto dai più grandi telescopi terrestri.