253 resultados para didattica infinitesimi calcolo differenziale funzioni razionali continuità limite
Resumo:
La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Questo elaborato di tesi illustra la realizzazione del back-end di LogicPlayer, un'app Android per la didattica della Deduzione Naturale
Resumo:
Approccio unificato alla gestione e alla valutazione del planning in stabilimenti e magazzini, presso Coca Cola HBC Italia
Resumo:
La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.
Resumo:
Negli ultimi anni la tecnologia ha svolto un ruolo sempre più importante nella formazione degli interpreti. All'interno del corso di Metodi e Tecnologie per l'Interpretazione si è quindi deciso di far conoscere agli studenti il software InterpretBank, programma sviluppato da Claudio Fantinuoli per assistere l'interprete durante tutte le fasi dell'interpretazione, dalla preparazione al lavoro in cabina. Le nuove generazioni di studenti usano quotidianamente le TIC e sono dunque molto recettivi alle innovazioni tecnologiche. Non avendo informazioni sul comportamento degli studenti nell'uso del software, si è deciso di condurre uno studio esplorativo che ha coinvolto un campione di studenti attualmente iscritti al corso di laurea magistrale in interpretazione. Dopo una fase formativa in cui gli studenti hanno imparato a conoscere e usare il software, si è svolta una simulazione finale nel corso della quale è stato osservato l'approccio degli studenti nell'uso di InterpretBank. La percezione del software da parte degli studenti è stata rilevata a mezzo questionario, i cui risultati sono stati confrontati con i dati raccolti durante la simulazione. Quanto emerso da questa analisi è poi stato confrontato con l'opinione di una giovane interprete freelance con esperienza presso le istituzioni europee. Dallo studio sono emersi dati interessanti. L'opinione degli studenti e dell'interprete riguardo al software è stata molto positiva. L'esperienza pratica nell'uso del software si è dimostrata utile per sviluppare negli studenti la consapevolezza del corretto uso del software. Sono emersi anche aspetti problematici. Gli studenti tendono infatti ad affidarsi troppo al software durante l'IS e il programma viene a volte percepito come fonte di distrazione che rende difficile concentrarsi sulla resa nel suo complesso. Si ritiene che un approccio graduale con esercizi mirati e l'esperienza pratica nell'uso del software possano aiutare gli studenti a comprendere come conciliare ricerca della terminologia e atto interpretativo, nonché ad imparare come suddividere l'attenzione durante l'IS.
Resumo:
“Play on your CPU” è un'applicazione mobile per ambienti Android e iOS. Lo scopo di tale progetto è quello di fornire uno strumento per la didattica dei principi di funzionamento dei processori a chiunque sia interessato ad approfondire o conoscere questi concetti.
Resumo:
Questo elaborato descrive il lavoro di tesi che ha portato all' inserimento del MiniSystem come strumento di supporto e di esercitazione per gli studenti nell' apprendimento del "Calcolo Numerico".
Resumo:
La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.
Resumo:
Esempio di applicazione del calcolo termico di verifica per generatori di vapore a tre giri da fumo.
Resumo:
Questo documento si interroga sulle nuove possibilità offerte agli operatori del mondo delle Reti di Telecomunicazioni dai paradigmi di Network Functions Virtualization, Cloud Computing e Software Defined Networking: questi sono nuovi approcci che permettono la creazione di reti dinamiche e altamente programmabili, senza disdegnare troppo il lato prestazionale. L'intento finale è valutare se con un approccio di questo genere si possano implementare dinamicamente delle concatenazioni di servizi di rete e se le prestazioni finali rispecchiano ciò che viene teorizzato dai suddetti paradigmi. Tutto ciò viene valutato per cercare una soluzione efficace al problema dell'ossificazione di Internet: infatti le applicazioni di rete, dette middle-boxes, comportano costi elevati, situazioni di dipendenza dal vendor e staticità delle reti stesse, portando all'impossibilità per i providers di sviluppare nuovi servizi. Il caso di studio si basa proprio su una rete che implementa questi nuovi paradigmi: si farà infatti riferimento a due diverse topologie, una relativa al Livello L2 del modello OSI (cioè lo strato di collegamento) e una al Livello L3 (strato di rete). Le misure effettuate infine mostrano come le potenzialità teorizzate siano decisamente interessanti e innovative, aprendo un ventaglio di infinite possibilità per il futuro sviluppo di questo settore.
Resumo:
Il presente elaborato ha come oggetto la progettazione e lo sviluppo di una soluzione Hadoop per il Calcolo di Big Data Analytics. Nell'ambito del progetto di monitoraggio dei bottle cooler, le necessità emerse dall'elaborazione di dati in continua crescita, ha richiesto lo sviluppo di una soluzione in grado di sostituire le tradizionali tecniche di ETL, non pi�ù su�fficienti per l'elaborazione di Big Data. L'obiettivo del presente elaborato consiste nel valutare e confrontare le perfomance di elaborazione ottenute, da un lato, dal flusso di ETL tradizionale, e dall'altro dalla soluzione Hadoop implementata sulla base del framework MapReduce.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di riqualificazione delle Ex Officine Meccaniche Reggiane, un’area industriale, sita a Reggio Emilia, che nel corso degli anni ha subìto una graduale dismissione, sino allo stato attuale di completo abbandono. Il tema riveste un’importanza focale nelle città moderne, affette da un elevato livello di migrazione e riorganizzazione dell’industria, che trasforma vaste aree di produzione in vuoti urbani di difficile gestione. I problemi fondamentali sono infatti la notevole dimensione degli stabilimenti abbandonati e la loro posizione, un tempo strategica, ma che ora risulta critica per una lettura unitaria della città e delle sue connessioni. L’area in oggetto, dedicata nel corso degli anni a diversi tipi di produzione, tra le quali quelle ferroviaria e dell’aviazione, è locata in prossimità del centro storico di Reggio Emilia, separati solamente dalla linea ferroviaria storica con cui si interfaccia direttamente. L’espansione della città ha portato ad inglobare lo stabilimento, che risulta quindi chiuso in se stesso e fortemente vincolante per le connessioni della città. Gli scopi dell’intervento sono quindi quelli di generare connessioni tra le parti di città circostanti e di permettere il riappropriamento dell’area alla popolazione. Per raggiungere tali scopi è stato necessario aprire il forte limite perimetrale esistente ed individuare nuovi percorsi di attraversamento, ma anche nuove funzioni ed attrattività da inserire. Vista la frammentazione dell’area in una serie di edifici, lo studio si è poi concentrato su un edificio tipo, allo scopo di individuare un’ipotesi di intervento più dettagliata. Le strategie degli interventi sono il risultato di interazione tra le necessità di mantenere le strutture ed il carattere dell’area, di introdurre funzioni attrattive e di ottenere adeguati livelli di comfort ambientale e prestazioni energetiche.
Resumo:
L'analisi di fase del segnale si presenta appropriata e di notevole efficacia per l'individuazione di attivazioni in fibrillazione atriale, in quanto permette la valutazione di come queste si generano e si propagano. Dopo aver ottenuto i dati relativi alle attivazioni, è possibile ricostruire delle mappe di fase atriale che possono essere utilizzate dal clinico per individuare i punti in cui cauterizzare. In questo lavoro di tesi sono stati utilizzati i segnali endocavitari atriali acquisiti con un catetere a contatto di nuova generazione per ottenere gli istanti di attivazione nelle diverse zone della camera atriale. I risultati dell'algoritmo messo a punto e testato su segnali in ritmo sinusale, sono stati confrontati con le performance di due metodi riportati in letteratura, evidenziando prestazioni migliori che potrebbero portare alla costruzione accurata delle mappe di fase e quindi ad una precisa localizzazione delle aree da cauterizzare durante la procedura di ablazione.
Resumo:
Questo lavoro di tesi verte sulla progettazione architettonica di un grattacielo ad uso misto nel cuore di Dubai. E’ stato scelto come sito di collocazione proprio Dubai in quanto fiorente cittadina in grande e continua espansione. In uno skyline così eterogeneo, caratterizzato da grattacieli imponenti, è stato possibile progettare un edificio dall’importante volumetria e dalla particolare conformazione. Partendo da un modello di riferimento in campo biologico, il Saguaro Cactus, si è tratto spunto al fine di creare un ambiente che, seppure nella sua imponenza, potesse, dal suo interno, trasmettere un senso di spazio fluido e continuo ai suoi fruitori. A raggiungimento di tal scopo si è pensato ad una superficie fluida, continua, scanalata che avvolgesse tutta la struttura, creando rientranze, aggetti ed aperture trattandone