1000 resultados para metodi di autenticazione a chiave pubblica e privata protocollo di Schnorr
Resumo:
Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.
Resumo:
Nel presente elaborato vengono approfonditi i principali metodi di posizionamento attualmente utilizzati, ossia il GPS e il GPS differenziale, con particolare riferimento a strutture posizionate in mare. Gli stessi sono utilizzati per il monitoraggio della subsidenza e dei movimenti tettonici cui le strutture offshore sono soggette, che, essendo movimenti dell’ordine di qualche millimetro all'anno, richiedono accuratezza nelle misure. Nell'ultima parte della tesi si è provveduto ad analizzare una serie di dati, derivanti da rilevamenti GPS, al fine di valutare gli effetti termici sulla struttura emersa di una piattaforma offshore.
Resumo:
Negli ultimi anni si è assistito al considerevole aumento della disponibilità di dati GPS e della loro precisione, dovuto alla diffusione e all’evoluzione tecnologica di smartphone e di applicazioni di localizzazione. Il processo di map-matching consiste nell’integrare tali dati - solitamente una lista ordinata di punti, identificati tramite coordinate geografiche ricavate mediante un sistema di localizzazione, come il GPS - con le reti disponibili; nell’ambito dell’ingegneria dei trasporti, l’obiettivo è di identificare il percorso realmente scelto dall’utente per lo spostamento. Il presente lavoro si propone l’obiettivo di studiare alcune metodologie di map-matching per l’identificazione degli itinerari degli utenti, in particolare della mobilità ciclabile. Nel primo capitolo è esposto il funzionamento dei sistemi di posizionamento e in particolare del sistema GPS: ne sono discusse le caratteristiche, la suddivisione nei vari segmenti, gli errori di misurazione e la cartografia di riferimento. Nel secondo capitolo sono presentati i vari aspetti del procedimento di map-matching, le sue principali applicazioni e alcune possibili classificazioni degli algoritmi di map-matching sviluppati in letteratura. Nel terzo capitolo è esposto lo studio eseguito su diversi algoritmi di map-matching, che sono stati testati su un database di spostamenti di ciclisti nell’area urbana di Bologna, registrati tramite i loro smartphone sotto forma di punti GPS, e sulla relativa rete. Si analizzano altresì i risultati ottenuti in un secondo ambiente di testing, predisposto nell’area urbana di Catania, dove sono state registrate in modo analogo alcune tracce di prova, e utilizzata la relativa rete. La comparazione degli algoritmi è eseguita graficamente e attraverso degli indicatori. Vengono inoltre proposti e valutati due algoritmi che forniscono un aggiornamento di quelli analizzati, al fine di migliorarne le prestazioni in termini di accuratezza dei risultati e di costo computazionale.
Resumo:
Mode of access: Internet.
Resumo:
Questa tesi ha lo scopo di indagare lo stato interno di materiali e strutture di diverso tipo tramite sollecitazione acustica o vibrazionale. Si sono sottoposte le strutture in esame a sollecitazione acustica (mediante speaker) o meccanica (mediante martello strumentato o altro percussore), acquisendo le onde meccaniche di ritorno con trasduttori microfonici, array microfonici, ed accelerometri. Si è valutato, di caso in caso, quale fosse la strumentazione più adeguata e quale il parametro da prendere in considerazione per effettuare una discriminazione tra oggetto integro ed oggetto danneggiato o contenente vuoti o inclusioni. Si è riflettuto sui dati raccolti allo scopo di capire quali caratteristiche accomunino strutture apparentemente diverse tra loro, e quali differenzino in realtà - rispetto alla possibilità di una efficace diagnosi acustica - strutture apparentemente simili. Si è sviluppato uno script su piattaforma MatLab® per elaborare i dati acquisiti. Tutte le analisi effettuate si basano sull'osservazione dello spettro acustico del segnale di ritorno dall'oggetto sollecitato. Ove necessario, si sono osservati la funzione di trasferimento del sistema (per il calcolo della quale si crosscorrelano i segnali di output e di input) o il waterfall. Da questa base, si sono sviluppati parametri specifici per i vari casi. Gli esami più proficui si sono effettuati sui solai, per la verifica dello sfondellamento dei laterizi. Anche lo studio su prodotti dell'industria alimentare (salami) si è rivelato molto soddisfacente, tanto da gettare le basi per la produzione di un tester da utilizzare in stabilimento per il controllo di qualità dei pezzi.
Resumo:
L’oggetto di questo elaborato riguarda lo studio prestazionale di un Solid Rocket Motor mediante l’introduzione del fattore di “Hump”, che va a compensare il discostamento tra il profilo delle pressioni sperimentali e teoriche, cercando di legare tali variazioni a spiegazioni fisiche. In particolare andremo ad investigare, all’interno di due differenti tipologie di colata, quale sia l’effetto predominante all’interno del propellente che genera proprio tali discostamenti della pressione, e quindi della spinta, rispetto alla condizione ideale. Nell’elaborato verranno anzitutto presentate le diverse tipologie di propulsori, i loro singoli componenti, i parametri fondamentali che regolano la meccanica di questa tipologia di motori, le tipologie di grain esistenti e le loro caratteristiche. Successivamente descriveremo le BARIA (Bomb ARIAne), usate per i test del grain nella ditta AVIO s.p.a., e le tipologie di riempimento di questo motore, investigando i fenomeni fisici a cui sarà legato l’effetto di “Hump”. In seguito si descriverà il fattore di “Hump”, evidenziando, per le differenti tipologie di riempimento, i fenomeni fisici a cui sarà legato il discostamento tra le pressioni sperimentali e teoriche. Verranno poi descritti i programmi utilizzati, gli script in Matlab prodotti, al fine di ottenere le mappe relative all’orientazione ed alla concentrazione delle particelle, da introdurre nel simulatore. Infine verranno esposti i risultati ottenuti e confrontati con i dati sperimentali forniti dalla ditta AVIO s.p.a., le conclusioni e gli sviluppi futuri.
Resumo:
Nell' elaborato vengono descritti gli studi conseguiti sia a livello internazionale che nazionale riguardanti la sostenibilità e i consumi energetici dell' ambiente costruito, passando dai problemi di occupazione, crescita economica e riduzione di emissioni di gas ad effetto serra, proseguendo poi con gli obiettivi da adottare in termini anche di circular economy e industria 4.0 per arrivare ad un unico grande scenario, ovvero quello della Riqualificazione Energetica degli Edifici.
Resumo:
I metodi di conservazione per i materiali cartacei in Italia e in Cina sono nati in diversi contesti storici. L’idea di questo studio nasce dalla necessità di sviluppare analisi specifiche sul metodo di restauro cartaceo cinese, per introdurre metodi e tecnologie efficaci ed innovative.
Resumo:
Nel presente lavoro di tesi sono presentati i primi risultati di un nuovo metodo basato sulla pirolisi analitica off-line per l’analisi quali-quantitativa di microplastiche di polistirene in tessuti biologici. I prodotti di pirolisi sono stati intrappolati testando due tecniche di campionamento, estrazione in fase solida (SPE) tramite cartucce adsorbenti e microestrazione in fase solida (SPME) tramite fibra adsorbente, per essere analizzati in gas cromatografia-spettrometria di massa. È stato testato un protocollo di pretrattamento della matrice biologica (digestione alcalina) ed estrazione con toluene prima di applicare la pirolisi analitica. Il pretrattamento della matrice biologica ha portato a dei buoni risultati garantendo un efficiente digestione dei tessuti biologici (> 97%). L’utilizzo del toluene come solvente di estrazione, ha permesso la separazione del polistirene dalla matrice biologica che poteva interferire nelle analisi. La pirolisi del polistirene genera cromatogrammi caratterizzati dalla presenza dello stirene come prodotto principale di degradazione. L’analisi quantitativa è stata condotta utilizzando il metodo dello standard interno e l’area del picco cromatografico dello stirene. Sono state determinate le principali caratteristiche delle tecniche SPE e SPME: precisione, linearità e recuperi. La tecnica SPE, presentando dei recuperi ed un grado di precisione più accettabili, è stata applicata a campioni di tessuti biologici provenienti da esperimenti in vivo di mitili esposti a basse concentrazioni di PS. I risultati delle analisi indicano la presenza di PS nei tessuti dei mitili a livelli del ug/g. Il metodo sviluppato presenta dati promettenti e potenzialità per monitorare l’inquinamento da PS nei tessuti biologici, tuttavia anche dei limiti che richiedono ulteriori indagini e miglioramenti in studi futuri.
Resumo:
Nel contesto dei vigneti terrazzati del Lavaux (Svizzera), è stato condotto uno studio sull'effetto di differenti metodi di gestione del vigneto, confrontando, in due areali viticoli, metodi ad alta sostenibilità (biologico e biodinamico) con una gestione di produzione integrata. Sono state effettuate analisi chimico-fisiche del suolo, osservazioni della composizione floristica del vigneto, valutazioni dello stato nutrizionale e sanitario delle viti. I risultati indicano la possibilità di ridurre sensibilmente l’impatto ambientale degli interventi colturali nei vigneti del Lavaux. Le parcelle gestite con metodi di coltivazione più sostenibili (biologico e biodinamico) hanno mostrato, in entrambi i siti, uno stato nutrizionale e sanitario soddisfacenti, analoghi a quelli delle parcelle coltivate con il metodo di produzione integrata. Tali parcelle si sono inoltre contraddistinte per la maggiore biodiversità della composizione floristica. Questo risultato è di fondamentale importanza per i vigneti terrazzati del Lavaux, patrimonio dell’umanità dell’UNESCO, come per i vigneti di altre aree soggette a forti pressioni antropiche.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
Trattamento dati, modellazione e calibrazione di un motore da competizione
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
Popillia japonica Newman (Coleoptera, Scarabaeidae) o, più volgarmente, scarabeo giapponese, è un insetto che dagli aerali d’origine in Asia orientale è arrivato negli USA a partire dai primi del '900 e infine si è diffuso in numerosi territori nel mondo. In Italia, P. japonica, classificato come insetto da quarantena, si trova principalmente in due regioni: Piemonte e Lombardia; in Emilia-Romagna la presenza è ancora sporadica. Insetto altamente polifago e capace di nutrirsi a spese di molte specie botaniche, può causare danni diretti ed indiretti che vanno a inficiare la produzione e la qualità. Sulla vite, sia europea che americana, il coleottero adulto provoca defogliazioni che, se non controllate, possono portare ad una totale perdita della superfice fogliare. Le larve non attaccano direttamente la vite ma possono causare danni alla vegetazione erbacea di interfila e sottofila. È fondamentale limitare l’espansione di P. japonica sul territorio Italiano, poiché i danni che potrebbe causare ammonterebbero a svariati milioni di euro ogni anno. Le azioni di monitoraggio, che sono eseguite principalmente tramite trappole a feromoni e rilievi visivi, sono quindi di estrema importanza. Esistono vari metodi di gestione utili a contenere le popolazioni di P. japonica sia allo stato larvale che adulto. A oggi, i più efficaci si basano sull’utilizzo di insetticidi di sintesi attivi contro larve e adulti. I metodi di gestione agronomici possono contribuire a ridurre la presenza dell’insetto contenendo soprattutto la popolazione larvale e in parte anche quella adulta. Purtroppo i risultati ottenuti tramite lotta biologica sono, invece, piuttosto scarsi.
Resumo:
In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.