559 resultados para trasformazioni che conservano la misura teorema ergodico teorema di Birkhoff
Resumo:
Con questo lavoro si studia l'argomento della dimensione di un insieme parzialmente ordinato P, introdotta nel 1941 da Dushnik e Miller, tramite diagrammi di Hasse, in modo da avere una visione geometrica di un concetto algebrico. Il Teorema di Szpilrajn permette di linearizzare un qualsiasi insieme parzialmente ordinato P: questo anticipa la definizione di dimensione, siccome tutte le linearizzazioni sono realizzatori: le loro coppie comuni sono presenti anche in P. La dimensione viene definita come il minimo numero cardinale m di realizzatori per P. Vengono rivisti alcuni dei risultati già pubblicati da M. Barnabei, F. Bonetti e R. Pirastu e ripresi da M. Silimbani nella sua Tesi di Dottorato: ci si concentra sulla dimensione 2 in cui può essere definito un etichettamento doppio, che si può utilizzare per avere un algoritmo poco costoso atto a sapere se un insieme parzialmente ordinato ha dimensione 2 : esso pone le basi per una corrispondenza biunivoca tra un insieme parzialmente ordinato di cardinalità n dotato di un etichettamento doppio e l'insieme delle permutazioni su n elementi. Infine viene spiegato un altro modo per scoprire se un insieme parzialmente ordinato P ha dimensione al massimo 2 servendosi del solo diagramma di Hasse: ciò succede se e solo se il grafo di inconfrontabilità di P ammette un orientamento transitivo.
Resumo:
Negli ultimi decenni le campagne di incoraggiamento del consumo di almeno 5 porzioni di frutta e verdura al giorno ha determinato un aumento da parte della popolazione del consumo di vegetali freschi. È ben noto infatti che i prodotti freschi sono un’importante risorsa di nutrienti, vitamine e fibre. Tra le varie tecniche di trattamento per diminuire la carica microbica in questi prodotti l’uso dell’ipoclorito di sodio rimane una delle soluzioni più utilizzate per la sua efficacia ed il basso costo. La domanda sempre più elevata da parte dei consumatori di prodotti di alta qualità sicuri ed economici è stato uno dei principali motivi che ha spinto l’industria verso lo sviluppo di tecniche di sanitizzazione alternative ai trattamenti tradizionali. Tra le varie tecniche messe a punto e studiate vi è l’acqua elettrolizzata che non sembra avere problemi di tossicità come altri sanitizzanti quali l’ipoclorito di sodio, la formaldeide e la glutaraldeide e tra i numerosi vantaggi presenta un ridotto tempo di pulizia, un facile utilizzo ed il basso costo. In questo lavoro si è voluto valutare se soluzioni di acqua elettrolizzata neutra (AE) possano essere impiegate come sanitizzanti per la decontaminazione di mele Golden Delicious. A tale scopo si sono effettuati lavaggi delle mele per immersione in AE a differente contenuto di cloro attivo (50, 100 e 200 ppm) verificando la riduzione della contaminazione superficiale rispetto sia alla microflora naturalmente presente, sia ad un patogeno deliberatamente inoculato sul prodotto, Listeria monocytogenes ceppo 56 Ly. A tale proposito si è voluto anche valutare l’effetto del livello di contaminazione iniziale di L. monocytogenes sull’efficacia dei lavaggi confrontandola con quella ottenuta con soluzioni di ipoclorito di sodio. Infine si è verificato se il potere antiossidante ed il contenuto in fenoli totali della buccia subiscono modificazioni a seguito dei lavaggi con AE neutra od ipoclorito di sodio alle condizioni adottate. I risultati di questa sperimentazione, sebbene preliminari, hanno evidenziato che l’acqua elettrolizzata può essere considerata una tecnica di decontaminazione promettente: infatti oltre ad avere un’azione sanitizzante simile all’ipoclorito nei confronti della microflora naturale, e di ridurre il rischio associato alla presenza di L. monocytogenes, non ha indotto modificazioni significative di un parametro qualitativo che caratterizza tale frutto quale l’attività antiossidante determinata, in larga misura, dall’elevato contenuto in fenoli.
Resumo:
Questa tesi introduce le basi della teoria della computazione quantistica, partendo da un approccio teorico-matematico al concetto di qubit per arrivare alla schematizzazione di alcuni circuiti per algoritmi quantistici, analizzando la differenza tra le porte logiche classiche e la loro versione quantistica. Segue poi una lista descrittiva di possibili applicazioni dei computer quantistici, divise per categorie, e i loro vantaggi rispetto ai computer classici. Tra le applicazioni rientrano la crittografia quantistica, gli algoritmi di fattorizzazione e del logaritmo discreto di Shor, il teletrasporto di informazione quantistica e molte altre. La parte più corposa della tesi riguarda le possibili implementazioni, ovvero come realizzare praticamente un computer quantistico rendendo entità fisiche i qubit. Di queste implementazioni vengono analizzati i vari aspetti necessari alla computazione quantistica, ovvero la creazione di stati iniziali, la misura di stati finali e le trasformazioni unitarie che rappresentano le porte logiche quantistiche. Infine vengono elencate le varie problematiche del modello preso in considerazione. Infine vengono citati alcuni esperimenti e modelli recenti che potrebbero vedere una realizzazione su scala industriale nei prossimi anni.
Resumo:
Definizioni e enunciati riguardo al gruppo fondamentale, alle azioni di gruppo, ai rivestimenti, alle varietà topologiche, differenziabili e riemanniane, alle isometrie e ai gruppi discreti di isometrie. Approfondimento riguardo alle superfici connesse, compatte e orientabili con classificazione topologica, definizione di curvatura gaussiana con classificazione delle superfici in base al valore della curvatura, teorema di Killing-Hopf, teorema di uniformizzazione, enunciato del teorema che verrà dimostrato: la sfera è l'unica superficie connessa, compatta e orientabile ellittica, il toro è l'unica piatta, le somme connesse di g tori (g>1) sono iperboliche. Descrizione del piano euclideo con relativa metrica, descrizione delle sue isometrie, teorema di Chasles con dimostrazione, dimostrazione del toro come unica superficie connessa, compatta e orientabile piatta. Descrizione della sfera con relativa metrica, descrizione delle sue isometrie, dimostrazione della semplicità di SO(3), dimostrazione della sfera come unica superficie connessa, compatta e orientabile ellittica. Descrizione di due modelli del piano iperbolico, descrizione delle sue isometrie, dimostrazione del fatto che le somme connesse di g tori (g>1) sono iperboliche. Definizione di gruppo Fuchsiano e di spazio di Teichmuller.
Resumo:
In questo elaborato viene presentata l'analisi cinematica delle regioni centrali di NGC 6441, uno degli ammassi globulari più massivi (M ~10^6 Msol) della nostra Galassia. L'ammasso è stato selezionato, insieme ad altri 18, all'interno dell'ESO Large Program “Unveiling the kinematics in the core of high-density globular clusters with SINFONI" (PI: Ferraro) per cercare evidenze di buchi neri di massa intermedia (IMBH), la cui esistenza è ancora controversa. Poichè la misura della dispersione di velocità da spettri integrati può essere affetta dalla contaminazione di poche stelle brillanti, in questo lavoro si sono misurate le velocità radiali (RV) di stelle individuali, utilizzando lo spettrografo IFU SINFONI dell'ESO, dotato di un sistema di ottiche adattive. Sono state misurate le RV di 709 stelle giganti nei primi 17" dal centro, da cui è stato estratto un sotto-campione di alta qualità di circa 200 stelle. Queste misure sono state poi combinate con un campione di RV nelle regioni più esterne dell'ammasso, ottenute con gli spettrografi multi-oggetto KMOS e FLAMES dell'ESO. Tali dati sono stati utilizzati per il calcolo del profilo di dispersione di velocità e per la ricerca di rotazione lungo l'intera estensione radiale nell'ammasso. I risultati ottenuti sembrano escludere sia l'esistenza di un IMBH, che la presenza di forte rotazione interna. Inoltre hanno evidenziato una significativa decrescita della dispersione di velocita` nelle regioni centrali (parzialmente confermata anche da misure di moti propri ottenute con HST), che potrebbe suggerire la presenza di anisotropia tangenziale nel centro del sistema. Un simile comportamento (sebbene di minore entita`) e’ stato evidenziato in altri ammassi, suggerendo che potrebbe trattarsi di una caratteristica comune in questi sistemi stellari.
Resumo:
La tesi è incentrata sullo studio dei punti di singolarità di una curva nel piano proiettivo complesso. Nel caso in cui il punto sia regolare possiamo sfruttare il teorema delle funzioni implicite che ci permette di esplicitare il luogo di zeri di un'equazione implicita rispetto a una variabile. Quando questa ipotesi di regolarità viene meno per avere un risultato analogo diventa necessario utilizzare le serie di Puiseux. L'interpretazione algebrica del teorema di Puiseux risponde alla domanda di trovare un'estensione del campo delle serie di Laurent che sia algebricamente chiuso; prendendo un polinomio di grado positivo in K(x)*[y], mostreremo che esiste sempre una radice del polinomio appartenente a K(x)*. Il legame con l’interpretazione analitica risulta ora evidente: data infatti una curva nel piano complesso la sua equazione può essere vista come un particolare polinomio in K(x)*[y], esplicitare la y in funzione della x equivale appunto a trovare una radice in K(x)*. Nel primo capitolo abbiamo in primo luogo richiamato il risultato di Dini e parlato del luogo singolare di una curva, mostrando che quest'ultimo è un numero finito di punti. In seguito abbiamo introdotto il poligono di Newton, il quale è un insieme convesso del piano associato ad un polinomio in due variabili. Nel secondo capitolo abbiamo visto due formulazioni del teorema di Puiseux, entrambe le dimostrazioni di questo risultato sono costruttive; per renderle più scorrevoli abbiamo ritenuto opportuno costruire degli esempi che evidenziassero i vari passi.
Resumo:
Questa tesi si propone di verificare l'esistenza di coordinate isoterme su una superficie. Le coordinate isoterme danno localmente una mappa conforme da una varietà riemanniana bidimensionale al piano Euclideo. Se la superficie è orientabile, allora si può dare un atlante di carte isoterme, cioè le cui coordinate associate siano isoterme. Queste coordinate esistono a patto che vengano soddisfatte certe condizioni. Il risultato nelle classi di Holder è dovuto a Korn e Lichtensten. Chern ha notevolmente semplificato la loro dimostrazione.
Resumo:
In questa tesi si mostrano alcune applicazioni degli integrali ellittici nella meccanica Hamiltoniana, allo scopo di risolvere i sistemi integrabili. Vengono descritte le funzioni ellittiche, in particolare la funzione ellittica di Weierstrass, ed elenchiamo i tipi di integrali ellittici costruendoli dalle funzioni di Weierstrass. Dopo aver considerato le basi della meccanica Hamiltoniana ed il teorema di Arnold Liouville, studiamo un esempio preso dal libro di Moser-Integrable Hamiltonian Systems and Spectral Theory, dove si prendono in considerazione i sistemi integrabili lungo la geodetica di un'ellissoide, e il sistema di Von Neumann. In particolare vediamo che nel caso n=2 abbiamo un integrale ellittico.
Resumo:
In questo lavoro di tesi ci proponiamo di determinare lo spessore degli isotopi ^157Gd e ^155Gd in vista della misura della sezione d’urto di cattura neutronica presso la facility n_TOF del CERN. La principale motivazione dell’esperimento è legata alla necessità di ottenere misure più accurate per le applicazioni ai reattori nucleari. Inoltre, i nuovi risultati, potranno essere sfruttati anche per applicazioni ai recenti sviluppi nella Terapia di Cattura Neutronica e per costruire nuovi rivelatori nell’ambito della ricerca del neutrino. La misura sarà effettuata nella prima area sperimentale EAR-1 di n_TOF, equipaggiata con rivelatori, come per esempio gli scintillatori liquidi al benzene deuterato (C6 D6) particolarmente adatti per questi tipi di misura. La sezione d’urto di questi due isotopi cambia di molti ordini di grandezza al variare dell’energia dei neutroni incidenti. Per questo motivo, lo studio effettuato in questa tesi ha mostrato che sono necessari due campioni altamente arricchiti per ogni isotopo da misurare: un campione estremamente sottile per energie del neutrone fino a 100 meV, e uno più spesso per energie maggiori. Inoltre per questi campioni sono stati determinati le densità areali necessarie per lo svolgimento dell’esperimento affinchè avvenga il fenomeno di trasmissione dei neutroni.
Resumo:
La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.
Resumo:
La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.
Resumo:
Il processo di Data Entry manuale non solo è oneroso dal punto di vista temporale ed economico, lo è ancor di più poiché rappresenta una fonte di errore: per questi motivi, l’acquisizione automatizzata delle informazioni lungo la catena produttiva è un obiettivo fortemente desiderato dal Gruppo per migliorare i propri business. Le tecnologie analizzate, ormai diffuse e standardizzate in ampia scala come barcode, etichette logistiche, terminali in radiofrequenza, possono apportare grandi benefici ai processi aziendali, ancor più integrandole su misura agli ERP aziendali, permettendo una registrazione rapida e corretta delle informazioni e la diffusione immediata delle stesse all’intera organizzazione. L’analisi dei processi e dei flussi hanno evidenziato le criticità e permesso di capire dove e quando intervenire con una progettazione che risultasse quanto più la best suite possibile. Il lancio dei fabbisogni, l’entrata, la mappatura e la movimentazione merci in Magazzino, lo stato di produzione, lo scarico componenti ed il carico di produzione in Confezionamento e Semilavorazione, l’istituzione di un magazzino di interscambio Dogana, un flusso di tracciabilità preciso e rapido, sono tutti eventi che modificheranno i processi aziendali, snellendoli e svincolando risorse che potranno essere reinvestite in operatività a valore aggiunto superiore. I risultati potenzialmente ottenibili, comprovati anche dalle esperienze esterne di fornitori e consulenza, hanno generato le condizioni necessarie ad un rapido studio e start dei lavori: il Gruppo è entusiasta ed impaziente di portare a termine quanto prima il progetto e di andare a regime con la nuova modalità operativa, snellita ed ottimizzata.
Resumo:
La presente tesi è suddivisa in due parti: nella prima parte illustriamo le definizioni e i relativi risultati della teoria delle tabelle di Young, introdotte per la prima volta nel 1900 da Alfred Young; mentre, nella seconda parte, diamo la nozione di numeri Euleriani e di Polinomi Euleriani. Nel primo capitolo abbiamo introdotto i concetti di diagramma di Young e di tabelle di Young standard. Inoltre, abbiamo fornito la formula degli uncini per contare le tabelle di Young della stessa forma. Il primo capitolo è focalizzato sul teorema di Robinson-Schensted, che stabilisce una corrispondenza biunivoca tra le permutazioni di Sn e le coppie di tabelle di Young standard della stessa forma. Ne deriva un'importante conseguenza che consiste nel poter trovare in modo efficiente la massima sottosequenza crescente di una permutazione. Una volta definite le operazioni di evacuazione e "le jeu de taquin" relative alle tabelle di Young, illustriamo una serie di risultati riferibili alla corrispondenza biunivoca R-S che variano in base alla permutazione che prendiamo in considerazione. In particolare, enunciamo il teorema di simmetria di M.P.Schüztenberger, che dimostriamo attraverso la costruzione geometrica di Viennot. Nel secondo capitolo, dopo aver dato la definizione di discesa di una permutazione, descriviamo altre conseguenze della corrispondenza biunivoca R-S: vediamo così che esiste una relazione tra le discese di una permutazione e la coppia di tabelle di Young associata. Abbiamo trattato approfonditamente i numeri Euleriani, indicati con A(n,k) = ]{σ ∈ Sn;d(σ) = k}, dove d(σ) indica il numero di discese di una permutazione. Descriviamo le loro proprietà e simmetrie e vediamo che sono i coefficienti di particolari polinomi, detti Polinomi Euleriani. Infine, attraverso la nozione di eccedenza di una permutazione e la descrizione della mappa di Foata arriviamo a dimostrare un importante risultato: A(n,k) conta anche il numero di permutazioni di Sn con k eccedenze.
Resumo:
L’intento dell’elaborato è quello di ricavare i limiti teorici ai quali è soggetta l’intensità del campo magnetico delle pulsar. Troveremo due relazioni: una che esprime il valore massimo dell’intensità del campo magnetico per una pulsar, e una che ne esprime il valore minimo. Combineremo infine i nostri due risultati in una disequazione, nella quale l'intensità del campo magnetico di una pulsar è minorata e maggiorata dai due termini trovati. Il valore massimo che può assumere l’intensità del campo magnetico di una pulsar verrà derivato dalla condizione di stabilità espressa dal teorema del viriale per un sistema sferico rotante in presenza di un campo magnetico. Enunceremo inizialmente il teorema del viriale nella sua forma generale, dopodiché ne presenteremo l'espressione in un caso statico in presenza di un campo magnetico. Abbandoneremo poi il caso statico per includere l'effetto della rotazione, non trascurabile nel caso delle pulsar. Dopo aver adattato la condizione di stabilità derivante dal teorema del viriale al nostro modello di pulsar, ricaveremo il valore massimo dell'intensità del campo magnetico. Il valore minimo che può assumere l’intensità del campo magnetico di una pulsar verrà ricavato uguagliando la potenza emessa dalla pulsar mentre ruota (approssimata ad un dipolo rotante) con la perdita di energia rotazionale che si osserva normalmente per questi oggetti. Otterremo alla fine due termini che delimitano i valori che può assumere l’intensità del campo magnetico per una pulsar. Sostituendo alla relazione trovata i valori di raggio e massa tipici per una pulsar, saremo in grado di riscrivere tale relazione unicamente in funzione del periodo di rotazione della pulsar e della sua derivata rispetto al tempo. Sostituiremo i valori di periodo e derivata temporale del periodo di una pulsar esistente per avere un’idea del range di valori sotteso dai due termini trovati.
Resumo:
Lo scopo della tesi è di stimare le prestazioni del rivelatore ALICE nella rivelazione del barione Lambda_c nelle collisioni PbPb usando un approccio innovativo per l'identificazione delle particelle. L'idea principale del nuovo approccio è di sostituire l'usuale selezione della particella, basata su tagli applicati ai segnali del rivelatore, con una selezione che usi le probabilità derivate dal teorema di Bayes (per questo è chiamato "pesato Bayesiano"). Per stabilire quale metodo è il più efficiente , viene presentato un confronto con altri approcci standard utilizzati in ALICE. Per fare ciò è stato implementato un software di simulazione Monte Carlo "fast", settato con le abbondanze di particelle che ci si aspetta nel nuovo regime energetico di LHC e con le prestazioni osservate del rivelatore. E' stata quindi ricavata una stima realistica della produzione di Lambda_c, combinando i risultati noti da esperimenti precedenti e ciò è stato usato per stimare la significatività secondo la statistica al RUN2 e RUN3 dell'LHC. Verranno descritti la fisica di ALICE, tra cui modello standard, cromodinamica quantistica e quark gluon plasma. Poi si passerà ad analizzare alcuni risultati sperimentali recenti (RHIC e LHC). Verrà descritto il funzionamento di ALICE e delle sue componenti e infine si passerà all'analisi dei risultati ottenuti. Questi ultimi hanno mostrato che il metodo risulta avere una efficienza superiore a quella degli usuali approcci in ALICE e che, conseguentemente, per quantificare ancora meglio le prestazioni del nuovo metodo si dovrebbe eseguire una simulazione "full", così da verificare i risultati ottenuti in uno scenario totalmente realistico.