851 resultados para autenticazione protocolli crittografia simulink implementazione stateflow
Resumo:
Questo elaborato ha avuto come obiettivo la modifica di un modello matematico di potenziale d’azione ventricolare umano per migliorare la relazione che lega la durata del potenziale d’azione all’incremento degli intervalli diastolici, al fine di riprodurre correttamente i risultati sperimentali noti in letteratura. Ruolo principe nell’analisi e nell’implementazione di tale modello è stato quello dello ione calcio, coinvolto in numerosi processi chimici all’interno della cellula cardiaca, e responsabile anche della sua contrazione. Tutte le modifiche effettuate sono state fatte preservando la dipendenza inversa tra la durata del potenziale d’azione e le variazioni di calcio extracellulare, che costituiva il punto di forza del modello considerato rispetto alla sua versione originale. Le modifiche effettuate hanno riguardato in parte la struttura del modello (compartimenti, volumi) e in parte il calcium handling, ovvero la gestione del Ca2+ all’interno della cellula, in termini di flussi e correnti. Il modello così ottenuto, denominato “newORk”, è stato validato rispetto a numerosi protocolli sperimentali (sia di voltage-clamp, sia di current-clamp) presenti in letteratura e i risultati di simulazione hanno dimostrato un comportamento coerente con i risultati in vitro. In particolare la risposta del modello al protocollo S1S2, che non era fisiologica nel modello precedente, viene adesso riprodotta correttamente dal nuovo modello, presentando un aumento dell’APD all’aumentare dell’intervallo diastolico considerato. Il modello qui descritto può quindi essere ritenuto un importante, per quanto specifico, miglioramento nella descrizione matematica della elettrofisiologia cardiaca umana e potrà essere utilizzato per esplorare contesti clinici in cui le concentrazioni di calcio nel sistema cardiocircolatorio si modificano, come per esempio la terapia dialitica.
Resumo:
Nel panorama motoristico ed automobilistico moderno lo sviluppo di motori a combustione interna e veicoli è fortemente influenzato da diverse esigenze che spesso sono in contrasto le une con le altre. Infatti gli obiettivi di economicità e riduzione dei costi riguardanti la produzione e la commercializzazione dei prodotti sono in contrasto con gli sforzi che devono essere operati dalle case produttrici per soddisfare le sempre più stringenti normative riguardanti le emissioni inquinanti ed i consumi di carburante dei veicoli. Fra le numerose soluzioni presenti i veicoli ibridi rappresentano una alternativa che allo stato attuale è già presente sul mercato in varie forme, a seconda della tipologie di energie accoppiate. In letteratura è possibile trovare numerosi studi che trattano l’ottimizzazione dei componenti o delle strategie di controllo di queste tipologie di veicoli: in moltissimi casi l’obiettivo è quello di minimizzare consumi ed emissioni inquinanti. Normalmente non viene posta particolare attenzione agli effetti che l’aggiunta delle macchine elettriche e dei componenti necessari per il funzionamento delle stesse hanno sulla dinamica del veicolo. Il presente lavoro di tesi è incentrato su questi aspetti: si è considerata la tipologia di veicoli ibridi termici-elettrici di tipo parallelo andando ad analizzare come cambiasse il comportamento dinamico del veicolo in funzione del tipo di installazione considerato per la parte elettrica del powertrain. In primo luogo è stato quindi necessario costruire ed implementare un modello dinamico di veicolo che permettesse di applicare coppie alle quattro ruote in maniera indipendente per considerare diverse tipologie di powertrain. In seguito si sono analizzate le differenze di comportamento dinamico fra il veicolo considerato e l’equivalente versione ibrida e i possibili utilizzi delle macchine elettriche per correggere eventuali deterioramenti o cambiamenti indesiderati nelle prestazioni del veicolo.
Resumo:
Il lavoro di Dottorato si è incentrato con successo sullo studio della possibilità di applicare il modello ADM1 per la descrizione e verifica di impianti industriali di digestione anaerobica. Dai dati sperimentali il modello e l'implementazione in software di analisi numerica si sono rivelati strumenti efficaci. Il software sviluppato è stato utilizzato come strumento di progettazione di impianti alimentati con biomasse innovative, analizzate con metodiche biochimiche (BMP) in scala di laboratorio. Lo studio è stato corredato con lo studio di fattibilità di un impianto reale con verifica di ottimo economico.
Resumo:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
Resumo:
Questa tesi tratta dello sviluppo di un progetto, svolto durante il periodo di tirocinio presso SMS.it, azienda specializzata nel settore della telefonia con sede a Bologna. L'azienda in questione ha commissionato, al sottoscritto ed al mio collega Daniele Sciuto, l'implementazione di un'applicazione cross-platform per smartphone, ed il relativo server. L'azienda ci ha fornito le specifiche del progetto, e ci ha seguiti in tutte le fasi del suo sviluppo. L'applicazione è pensata per offrire agli utenti la possibilità di usufruire di tariffe telefoniche agevolate. I vantaggi sono maggiormente apprezzabili nelle chiamate internazionali. Queste tariffe sono possibili grazie agli accordi fra l'azienda e vari operatori di telefonia. Nella primo capitolo di questo elaborato, viene analizzato cosa ci è stato richiesto di realizzare, le specifiche del progetto dateci dall'azienda e quali sono i vincoli ai quali ci si è dovuti attenere. Nella secondo capitolo, viene descritto nel dettaglio la progettazione delle singole funzionalità dell'applicazione, e i rapporti che ci sono fra il front-end ed il back-end. Successivamente, sono analizzate le tecnologie necessarie per la realizzazione e il loro utilizzo nell'applicazione. Come richiestoci dall'azienda, alcuni dettagli implementativi sono stati omessi, per garantire il rispetto del segreto industriale. Nonostante ciò viene comunque fornita una panoramica completa di ciò che è stato realizzato. In ultima analisi è descritta qualitativamente l'applicazione ottenuta, e come aderisca alle specifiche richieste.
Resumo:
Descrizione dell'algoritmo crittografico AES, criteri adottati dal NIST per la scelta di AES e considerazioni sulla sua sicurezza.
Resumo:
Questo elaborato realizzato assieme alla creazione di un link nel sito "progettomatematic@" tratta dell'infinito in tre modi diversi: la storia, l'applicazione ai frattali e alla crittografia. Inizia con una breve storia dai greci all'antinomia di Russel; poi si parla dei frattali in natura, di misura e dimensione di Hausdorff, polvere di Cantor e fiocco di neve di Koch. Infine si trova un riassunto dei cifrari storici famosi, con particolare attenzione al cifrario di Vernam, alla teoria dell'entropia di Shannon e alla dimostrazione che otp ha sicurezza assoluta.
Resumo:
Uno dei problemi che ostacola la diffusione in ambito civile degli aerei senza pilota a bordo (UAV) è la gestione della sicurezza in volo. Gli UAV civili, infatti, popolando una regione di spazio aereo molto affollata e devono interagire con una moltitudine di altri mezzi aerei. Per questo motivo, risulta particolarmente critica l'implementazione di logiche di tipo Sense and Avoid, attraverso le quali un UAV deve essere in grado di "vedere" altri mezzi in rotta di collisione ed elaborare le azioni utili ad evitare l'impatto, decidendo se attuare una manovra autonoma di avoiding oppure delegarla al mezzo incontrato. Questa tesi descrive un primo approccio al problema del riconoscimento (Sense) dei mezzi aerei che un generico velivolo UAV può incontrare durante la normale condotta del volo. In particolare, si descrivono le strategie impiegate e gli ambienti software utilizzati per testare alcune procedure di riconoscimento delle immagini applicabili alla fase di detection dell'intruder, situazione tipica del caso di studio. I risultati sperimentali ottenuti dalla progettazione e dallo sviluppo di un apposito software, consistono nell'implementazione e successiva valutazione di diverse tecniche, individuando le criticità del problema.
Resumo:
The idea of balancing the resources spent in the acquisition and encoding of natural signals strictly to their intrinsic information content has interested nearly a decade of research under the name of compressed sensing. In this doctoral dissertation we develop some extensions and improvements upon this technique's foundations, by modifying the random sensing matrices on which the signals of interest are projected to achieve different objectives. Firstly, we propose two methods for the adaptation of sensing matrix ensembles to the second-order moments of natural signals. These techniques leverage the maximisation of different proxies for the quantity of information acquired by compressed sensing, and are efficiently applied in the encoding of electrocardiographic tracks with minimum-complexity digital hardware. Secondly, we focus on the possibility of using compressed sensing as a method to provide a partial, yet cryptanalysis-resistant form of encryption; in this context, we show how a random matrix generation strategy with a controlled amount of perturbations can be used to distinguish between multiple user classes with different quality of access to the encrypted information content. Finally, we explore the application of compressed sensing in the design of a multispectral imager, by implementing an optical scheme that entails a coded aperture array and Fabry-Pérot spectral filters. The signal recoveries obtained by processing real-world measurements show promising results, that leave room for an improvement of the sensing matrix calibration problem in the devised imager.
Resumo:
L’anguilla europea, è una specie eurialina catadroma con un complesso ciclo biologico: l’area di riproduzione, unica, si trova molto distante da quella di distribuzione. La specie necessita di una gestione dello stock a fini conservazionistici. Il problema è europeo: lo stock è unico, distribuito in Europa e nell’Africa settentrionale, si riproduce in Atlantico ed è panmittico. C’è preoccupazione per il declino del reclutamento e delle catture di adulti. Lo scopo del progetto è di individuare possibili unità di stock nella penisola italiana. La ricerca è basata sullo studio degli otoliti mediante analisi morfometrica e microchimica. I contorni degli otoliti sono sottoposti ad analisi ellittica di Fourier per individuare eventuali gruppi. Gli otoliti sono stati levigati per effettuare: letture d’età, indagini microstrutturali al SEM delle fasi larvali, analisi microchimiche LA-ICP-MS del nucleo, studiarne l’origine e valutare l’ambiente di sviluppo. Le indagini morfometriche mostrano evidenti pattern ontogenetici, ma non legati ocorrelati alla località, sesso o anno di nascita. Le indagini microstrutturali hanno evidenziano l’alto contenuto organico nucleare, un pattern comune di crescita ed eventi chiave delle fasi larvali, con una media di 212 anelli giornalieri. La microchimica rivela che le larve si sviluppano in acque salate fino alla metamorfosi, poi migrano verso acque meno salate. Le analisi su campioni nati nello stesso anno, evidenziano due gruppi: individui di rimonta naturale e individui di ripopolamento. I profili nucleo bordo evidenziano la permanenza a salinità intermedie degli adulti. L’attività di ricerca si è dimostrata proficua dal punto di vista tecnico con la messa a punto di protocolli innovativi e con forti ricadute sulla riduzione dei tempi e costi d’analisi. Il debole segnale di possibili unità di stock andrà verificato in futuro mediante analisi più dettagliate discriminando meglio la storia di ogni singolo individuo.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
Una macchina relativistica è una macchina il cui tempo scorre ad una velocità diversa da quella del tempo reale. Macchine di questo tipo possono essere utili ad esempio per simulare tempi di trasferimento dei dati più veloci, oppure per testare protocolli di sincronizzazione degli orologi. La possibilità di definire la velocità del tempo virtuale è stata aggiunta a User-Mode Linux. Grazie ad una modifica a Marionnet che include un'interfaccia grafica è stato reso semplice il processo di creazione di reti di macchine virtuali relativistiche.
Resumo:
Nell'ultimo ventennio l'impatto delle tecnologie wireless ha rivoluzionato il modo di comunicare. Tuttavia oltre a svariati benefici sono emersi diversi problemi di integrazione e ottimizzazione. Uno tra i protocolli più conosciuto e utilizzato in ambito di comunicazioni di rete, il TCP, viene sempre più spesso usato all'interno di sistemi wireless, per le sue caratteristiche di affidabilità e controllo, senza però fornire supporto specifico. Ciò è materia di forte dibattito e ricerca, che mira a cercare di raffinare le differenti versioni di TCP per renderle wireless-oriented. In questo lavoro si analizzano due varianti di sistema che sfruttano il TCP in scenari di mobilità, una con TCP classico e l'altra con TCP modificato tramite l'aggiunta di un meccanismo di ritrasmissione anticipata, e se ne studiano i vari aspetti e comportamenti, valutandone le prestazioni per mezzo di metodi matematici consolidati in letteratura.
Resumo:
Il lavoro che si presenta ha la principale funzione di proporre un metodo di interconnessione di strumenti musicali digitali che utilizzi i più comuni protocolli e strumenti hardware di rete. Nell'ottica di Internet of Things, si vuole rendere MIDI un sotto-protocollo di rete.
Resumo:
Negli ultimi anni lo spreco alimentare ha assunto un’importanza crescente nel dibattito internazionale, politico ed accademico, nel contesto delle tematiche sulla sostenibilità dei modelli di produzione e consumo, sull’uso efficiente delle risorse e la gestione dei rifiuti. Nei prossimi anni gli Stati Membri dell’Unione Europea saranno chiamati ad adottare specifiche strategie di prevenzione degli sprechi alimentari all’interno di una cornice di riferimento comune. Tale cornice è quella che si va delineando nel corso del progetto Europeo di ricerca “FUSIONS” (7FP) che, nel 2014, ha elaborato un framework di riferimento per la definizione di “food waste” allo scopo di armonizzare le diverse metodologie di quantificazione adottate dai paesi membri. In questo scenario, ai fini della predisposizione di un Piano Nazionale di Prevenzione degli Sprechi Alimentari per l’Italia, il presente lavoro applica per la prima volta il “definitional framework” FUSIONS per l’analisi dei dati e l’identificazione dei principali flussi nei diversi anelli della filiera e svolge un estesa consultazione degli stakeholder (e della letteratura) per identificare le possibili misure di prevenzione e le priorità di azione. I risultati ottenuti evedenziano (tra le altre cose) la necessità di predisporre e promuovere a livello nazionale l’adozione di misure uniformi di quantificazione e reporting; l’importanza del coinvolgimento degli stakeholder nel contesto di una campagna nazionale di prevenzione degli sprechi alimentari; l’esigenza di garantire una adeguata copertura economica per le attività di pianificazione e implementazione delle misure di prevenzione da parte degli enti locali e di un coordinamento a livello nazionale della programmazione regionale; la necessità di una armonizzazione/semplificazione del quadro di riferimento normativo (fiscale, igienico-sanitario, procedurale) che disciplina la donazione delle eccedenze alimentari; l’urgenza di approfondire il fenomeno degli sprechi alimentari attraverso la realizzazione di studi di settore negli stadi a valle della filiera.