147 resultados para Crittografia, teoria dei numeri, RSA
Resumo:
Nel redarre la tesi si è perseguito l'intento di illustrare la teoria alla base delle onde gravitazionali e dei metodi che ne consentono la rivelazione. È bene tenere presente che con il seguente elaborato non si sta proponendo, in alcun modo, una lettura da sostituire ad un testo didattico. Pur tuttavia, si è cercato di presentare gli argomenti in maniera tale da emulare l'itinerario formativo di uno studente che, per la prima volta, si approcci alle nozioni, non immediatamente intuitive, ivi descritte. Quindi, ogni capitolo è da interpretarsi come un passo verso la comprensione dei meccanismi fisici che regolano produzione, propagazione ed infine rivelazione delle perturbazioni di gravità. Dopo una concisa introduzione, il primo capitolo si apre con il proposito di riepilogare i concetti basilari di geometria differenziale e relatività generale, gli stessi che hanno portato Einstein ad enunciare le famose equazioni di campo. Nel secondo si introduce, come ipotesi di lavoro standard, l'approssimazione di campo debole. Sotto questa condizione al contorno, per mezzo delle trasformazioni dello sfondo di Lorentz e di gauge, si manipolano le equazioni di Einstein, ottenendo la legge di gravitazione universale newtoniana. Il terzo capitolo sfrutta le analogie tra equazioni di campo elettromagnetiche ed einsteiniane, mostrando con quanta naturalezza sia possibile dedurre l'esistenza delle onde gravitazionali. Successivamente ad averne elencato le proprietà, si affronta il problema della loro propagazione e generazione, rimanendo sempre in condizioni di linearizzazione. È poi la volta del quarto ed ultimo capitolo. Qui si avvia una dissertazione sui processi che acconsentono alla misurazione delle ampiezze delle radiazioni di gravità, esibendo le idee chiave che hanno condotto alla costruzione di interferometri all'avanguardia come LIGO. Il testo termina con uno sguardo alle recenti scoperte e alle aspettative future.
Resumo:
In questo lavoro vogliamo studiare l'evoluzione dell'elettromagnetismo classico ed i fondamenti teorici della teoria classica del campo elettromagnetico. Riprenderemo i risultati sperimentali principali costruendo una teoria coerente dell'interazione elettromagnetica sfruttando il formalismo Lagrangiano già sviluppato per i sistemi meccanici. Lo studio delle proprietà del campo elettromagnetico è di fondamentale importanza per la fisica teorica: la sua relativa semplicità lo rende un buon candidato per lo sviluppo del formalismo necessario alla descrizione dei sistemi ad infiniti gradi di libertà. Questo servirà inoltre come punto di partenza per lo sviluppo di teorie di campo quantistiche più avanzate.
Resumo:
Il presente lavoro vuole sensibilizzare al problema socio-linguistico dell’insegnamento dell’italiano come lingua seconda: si mostra un panorama della situazione, partendo dall’insegnamento in sé, presentando le tecniche ed i metodi non finalizzati al mero insegnamento, ma anche all’accoglienza della famiglia e alla crescita serena del bambino appena arrivato; si passa, poi, alla descrizione del contesto in cui opera la didattica interculturale, un contesto che presenta varie problematicità, dal sofferto arrivo in una terra straniera, alla necessità di adattamento nel gruppo dei pari e nel sistema scolastico, sia dal punto sociale che dal punto di vista linguistico. Il soggetto di questa tesina sono i bambini, perché un mondo che funzioni bene deve saper ruotare attorno a loro. I protagonisti del "caso particolare" di cui si parla nel titolo sono due bambini cinesi arrivati in Italia da poco e dei quali viene raccontata la loro prima esperienza di studio dell'italiano nel loro nuovo Paese.
Resumo:
Con il testo presente, si intende mostrare come i gradi di libertà associati all'entropia di un buco nero possano essere ricercati in parte fruttuosamente nell'interazione dei campi quantistici con la struttura causale e geometrica esibita da un buco nero. Nel Capitolo 1, si affrontano le principali caratteristiche dei buchi neri alla luce della teoria classica di Relatività Generale: sono analizzate la soluzione di Schwarzschild e la struttura causale nello spazio-tempo conseguente, discutendo le definizioni di orizzonte e di singolarità e il rapporto che le lega, con riferimento ai risultati di Penrose e Hawking. Introdotto, all'inizio del Capitolo 2, il concetto di gravità superficiale e la metrica di Kerr-Newman, si studia il significato delle Quattro Leggi dei buchi neri, valide per soluzioni stazionarie. Il Capitolo 3 espone quali motivazioni spingano a proporre una caratterizzazione termodinamica dei buchi neri, attribuendovi una temperatura e un'entropia (detta “di Bekenstein-Hawking”) di natura geometrica, dipendente dall'area dell'orizzonte; si trattano qui i problemi che si incontrano nel costruire una corrispondente Meccanica Statistica. Si descrive dunque in quali termini il processo di radiazione di Hawking riesca a dare una spiegazione fisica della temperatura, e si rileva la presenza, secondo osservatori statici, di un'atmosfera termica nei pressi dell’orizzonte. Infine, si esamina la possibilità di attribuire alla radiazione di Hawking i gradi di libertà relativi all'entropia di Bekenstein-Hawking. In particolare, si illustra il modello a muro di mattoni di 't Hooft, che lega i gradi di libertà all'atmosfera termica. Considerando infine la deformazione dell'orizzonte dovuta a fluttuazioni quantistiche, si giunge alla conclusione che l'entropia dell'atmosfera termica rappresenta non un'interpretazione dell'entropia di Bekenstein-Hawking, bensì una sua correzione al secondo ordine.
Resumo:
La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.
Resumo:
Nonostante l'utilizzo di strumenti informatici nella pratica didattica della matematica sia ormai ampiamente diffuso, l'insegnamento dei principi matematici dell'informatica è preso meno in considerazione anche a causa dei pochi punti di contatto nelle "Indicazioni Nazionali" tra le due materie, matematica e informatica, che sono invece intimamente correlate. Questa tesi descrive una attività didattica incentrata sul concetto di calcolabilità e computabilità e basata sul noto formalismo delle Macchine di Turing. É nostra opinione che coinvolgere gli studenti in tali tipologie di attività possa stimolare oltre all'apprendimento di competenze disciplinari, anche lo sviluppo di importanti competenze trasversali, in primis, il problem solving. L’attività proposta nella tesi è stata realizzata in una classe terza di un istituto tecnico economico dove, a seguito di una spiegazione dell’argomento, sono stati svolti due esercizi di gruppo, utilizzando il software \emph{Turing Machine Visualization}, che permette agli studenti e al docente di avere un supporto visuale al dialogo. Al termine dell’attività didattica è stato somministrato agli studenti un questionario che ha permesso di valutare le competenze acquisite da due prospettive distinte: soggettiva e oggettiva. I risultati del questionario sono ampliamente analizzati e discussi nella tesi.
Resumo:
L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
L'obiettivo dell'elaborato è quello di studiare le proprietà spettrali di un'operatore di Markov associato ad una passeggiata aleatoria ipoellittica dipendente da un parametro h, sufficientemente piccolo, e costruita su una varietà liscia finito-dimensionale, connessa, compatta e senza bordo. Nell'affrontare tale problema si utilizza una tecnica di Rothschild e Stein, basata sulla costruzione di un'algebra di Lie graduata. Si ottiene in questo modo una corrispondenza tra la varietà e l'algebra di Lie, e si utilizza la struttura che quest'ultima presenta per studiare il problema su di essa. Il risultato principale a cui si vuole giungere tramite l'analisi spettale dell'operatore di Markov è una stima, uniforme rispetto ad h, per il tasso di convergenza di tale passeggiata aleatoria verso l'equilibrio, al tendere del numero dei passi all'infinito. Tramite l'approccio utilizzato si giunge inoltre ad un risultato di convergenza della catena di Markov ad una diffusione ipoellittica continua al tendere di h a 0.
Resumo:
L'evoluzione di nuove tecnologie e la nascita di nuove tecniche di pagamento digitale, oltre che migliorare l'esperienza del cliente rendendo più semplice effettuare transazioni, ha portato con sè anche dei rischi per gli utilizzatori. L'elaborato vuole analizzare la sicurezza e le tecniche crittografiche utilizzate nei principali metodi di pagamento digitale.
Resumo:
Nel mondo odierno la crescente richiesta di sicurezza ha evidenziato la necessità di sviluppare tecniche di identificazione degli individui che superino le problematiche delle metodologie tradizionali. Da qui nasce il concetto di identificazione basato sulla biometria. Spostando l’attenzione su ciò che un individuo è, cioè i suoi tratti biometrici, è possibile aumentare notevolmente la sicurezza. Le tecniche biometriche sono studiate per verificare l’identità di una persona, ossia comprovare che è chi dichiara di essere, o per identificare una persona, ossia scoprire la sua identità. Le caratteristiche fisiologiche o comportamentali di una persona che permettono di fare ciò sono dette dati biometrici. Tra questi si collocano la geometria del volto, le impronte digitali, la geometria della mano, la retina, l’iride, la voce, la firma, il DNA. I più recenti sviluppi in materia hanno permesso l’introduzione di tecniche chiamate Biometric Template Protection Schemes. Questi schemi sono nati proprio allo scopo di fornire un ulteriore strato di sicurezza per proteggere i dati biometrici degli individui. Questi schemi di protezione sono altamente innovativi e aprono la strada a numerose nuove implementazioni ancora in fase di sviluppo.
Resumo:
L’attività di Tesi svolta presso l’azienda Magni Telescopic Handlers è stata finalizzata all’implementazione e l’ottimizzazione dei principi fondamentali della teoria della Lean Manufacturing. Lo scopo del percorso si è concentrato in prima battuta sulla valutazione e analisi delle previsioni dei consumi delle macchine, per poi proseguire con la realizzazione di un database aggiornato costituito esclusivamente dal materiale gestito a Kanban. In questa maniera è stato possibile predisporre la formulazione della mappatura dei componenti a Kanban lungo le tre linee di montaggio dell’azienda, per riuscire a verificare il corretto collocamento dei codici. Sono quindi successivamente sviluppate due metodologie di implementazione per il dimensionamento del Kanban al fine di ottimizzare i processi interni, in accordo con la filosofia Lean Thinking. Al termine dell'elaborato sono illustrati i risultati e i vantaggi che si sono ottenuti per consentire un miglior livello di ottimizzazione delle attività di montaggio lungo la linea e uno standard di efficienza produttiva più elevato.