967 resultados para orientamento :: 149 :: Operazioni di volo
Resumo:
Lo scopo del lavoro è di seguire, attraverso la disamina di fonti edite e inedite, le particolarità che, in età moderna, caratterizzarono la “via veneziana” al riscatto dei sudditi veneti che fossero detenuti a vario titolo dai “turchi”, e soprattutto dagli stati «barbareschi» della costa settentrionale africana. In particolare, lo studio si propone di concentrarsi sull'azione dei Provveditori sopra ospedali e luoghi pii. Tale magistratura, formata da tre patrizi ed esistente fin dal 1561 per tutelare gli ospedali maggiori veneziani e le molte altre istituzioni di ricovero esistenti in città, e nel contempo vigilare sulla loro corretta gestione amministrativa ed economica, dal 1588 e fino alla caduta della Repubblica nel 1797 fu incaricata anche del riscatto, aggiungendo quindi alla propria precedente denominazione la formula e al riscatto degli schiavi. A un organo dello Stato veniva dunque assegnata una funzione di controllo e superiore organizzazione, volta ad evitare il disperdersi delle sollecitate donazioni private ed un’eventuale scorretta gestione delle stesse. Il lavoro si focalizza poi sulle modalità con cui avveniva materialmente il riscatto dei sudditi veneti, o “esteri” ma al servizio veneto, che versassero in una condizione di bisogno, seguendo l'azione degli intermediari (spesso mercanti, cristiani o ebrei, o consoli di varie nazioni) che vivevano o si recavano nel territorio delle Reggenze nordafricane e contrattavano il prezzo necessario. Infine la ricerca, concentrandosi sul XVIII secolo, mira a valutare il quadro dei rapporti tra il governo veneziano, la Scuola veneziana della Trinità, dedita al riscatto, e i padri Trinitari, stabilitisi nel 1723 negli Stati veneti. Solo abbastanza tardi, infatti, e per un limitato arco di anni (fino al 1735), anche Venezia, sulla scorta di quanto da tempo praticato da altre potenze europee, decise – per ragioni principalmente di risparmio – di affidarsi per la gestione delle operazioni di riscatto ai religiosi.
Resumo:
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Resumo:
Dopo gli indubbi sviluppi politici e legali tendenti all’uniformazione è inevitabile non sostenere che anche il mercato della gestione delle infrastrutture e del trasporto aereo a terra costituisce un fattore determinante del trasporto aereo con una più stretta necessità di uniformazione del quadro regolamentare. La gestione aeroportuale e i servizi connessi è collocata all’interno del diritto aereo. Perché si configuri il “trasporto aereo” (nozione dinamica base che caratterizza il diritto del trasporto aereo) si ha la necessità di un accordo tra due paesi – un permesso di volo designato – una finestra di orario di decollo e atterraggio e la regolamentazione delle relative attività connesse, affinché si svolgano in situazione di safety, quale conditio sine qua non di tutte le attività di aviazione. Tuttavia, la migliore dottrina sente il bisogno di una trattazione separata della materia diritto aereo in senso stretto e quella della disciplina aeroportuale, benché i due ambiti sono tra di loro contigui. Questo è legittimato da esigenze contrapposte fra gli operatori dei due settori. In ultima considerazione possiamo sostenere che gli sviluppi legislativi, sia nel diritto aeronautico e in quello marittimo, portano all’abbraccio della impostazione di un diritto dei trasporti inclusivo di ogni forma dell’attuazione del fenomeno trasporto, scollegandosi al solo fenomeno dell’esercizio nautico quale elemento caratterizzante della disciplina. Quale futuro legislativo si prospetta per la gestione del bene aeroporto? Quale sarà la sua dimensione legale su questioni importanti sulle quali esiste una normazione europea come l’allocazione delle bande orarie, tasse aeroportuali e assistenza a terra oppure su quelle che hanno un carattere prevalentemente nazionale? E infine, quale sarebbe la strada da seguire per regolare il nuovo mercato aeroportuale che è passato dalla idea della competizione per il mercato esplorando anche la competizione nel mercato, con aeroporti che si comportano come operatori in concorrenza tra loro?
Resumo:
In recent years, the use of Reverse Engineering systems has got a considerable interest for a wide number of applications. Therefore, many research activities are focused on accuracy and precision of the acquired data and post processing phase improvements. In this context, this PhD Thesis deals with the definition of two novel methods for data post processing and data fusion between physical and geometrical information. In particular a technique has been defined for error definition in 3D points’ coordinates acquired by an optical triangulation laser scanner, with the aim to identify adequate correction arrays to apply under different acquisition parameters and operative conditions. Systematic error in data acquired is thus compensated, in order to increase accuracy value. Moreover, the definition of a 3D thermogram is examined. Object geometrical information and its thermal properties, coming from a thermographic inspection, are combined in order to have a temperature value for each recognizable point. Data acquired by an optical triangulation laser scanner are also used to normalize temperature values and make thermal data independent from thermal-camera point of view.
Resumo:
L'elimodellismo è una passione che lega un numero sempre maggiore di persone: nuove manifestazioni vengono organizzate in tutto il mondo e nuove discipline vengono continuamente proposte. Questo è il caso della disciplina speed in cui i piloti si sfidano a far volare i propri elimodelli alle massime velocità. L'azienda SAB Heli Division s.r.l., come produttore di pale per elimodelli e della serie di elicotteri Goblin, ha interesse a sostenere i propri piloti con le proprie macchine, facendo sì che siano veloci e competitive. Per questo ha voluto sviluppare una pala che, montata sul proprio elicottero specifico per questa disciplina, possa vincere la concorrenza con l'ambizione di stabilire un primato di velocità a livello internazionale. Il problema è quindi quello di sviluppare una pala che ottimizzasse al meglio le caratteristiche dell'elimodello Goblin Speed, in modo da sfruttare al meglio la potenza installata a bordo. Per via dei limiti sui mezzi a disposizione l'ottimizzazione è stata portata avanti mediante la teoria dell'elemento di pala. Si è impostato il calcolo determinando la potenza media su una rotazione del rotore in volo avanzato a 270 km/h e quindi attraverso gli algoritmi di ottimizzazione globale presenti nel codice di calcolo MATLAB si è cercato il rotore che permettesse il volo a tale velocità al variare del raggio del disco del rotore, dello svergolamento della pala e della distribuzione di corda lungo la pala. Per far sì che si abbiano risultati più precisi si sono sfruttati alcuni modelli per stimare il campo di velocità indotta o gli effetti dello stallo dinamico. Inoltre sono state stimate altre grandezze di cui non sono noti i dati reali o di cui è troppo complesso, per le conoscenze a disposizione, avere un dato preciso. Si è tuttavia cercato di avere stime verosimili. Alcune di queste grandezze sono le caratteristiche aerodinamiche del profilo NACA 0012 utilizzato, ottenute mediante analisi CFD bidimensionale, i comandi di passo collettivo e ciclico che equilibrano il velivolo e la resistenza aerodinamica dell'intero elimodello. I risultati del calcolo sono stati confrontati innanzitutto con le soluzioni già adottate dall'azienda. Quindi si è proceduto alla realizzazione della pala e mediante test di volo si è cercato di valutare le prestazioni della macchina che monta la pala ottenuta. Nonostante le approssimazioni adottate si è osservato che la pala progettata a partire dai risultati dell'ottimizzazione rispecchia la filosofia adottata: per velocità paragonabili a quelle ottenute con le pale prodotte da SAB Heli Division, le potenze richieste sono effettivamente inferiori. Tuttavia non è stato possibile ottenere un vero e proprio miglioramento della velocità di volo, presumibilmente a causa delle stime delle caratteristiche aerodinamiche delle diverse parti del Goblin Speed.
Resumo:
Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.
Resumo:
Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.
Resumo:
La presente tesis analiza el problema de la validez de las disposiciones de transposición de las Directivas Europeas en los ordenamientos nacionales desde la perspectiva del principio constitucional de reserva de ley. En el primer capítulo se desarrolla un análisis del estado de la cuestión en las jurisprudencias española e italiana. En el segundo se afronta el estudio de los requisitos impuestos por la jurisprudencia del TJUE en relación con las normas por las que se procede a la incorporación en los ordenamientos internos del contenido de las Directivas; teniendo en cuenta que ha de partirse del principio de autonomía institucional y procedimental de los Estados Miembros y que las Directivas, en tanto carentes por razón de su forma de directa aplicabilidad, no pueden sustituir a la ley nacional, el principio de reserva de ley ha de aplicarse en este tipo de operaciones siempre que así lo exija la Constitución nacional. En el tercer capítulo se estudian los efectos que han producido en los ordenamientos italiano, francés y alemán las cláusulas constitucionales "europeas", alcanzándose la fundamental conclusión de que las mismas no han supuesto quiebra alguna de la disciplina general de producción normativa en lo que se refiere a las operaciones de ejecución interna del Derecho Europeo. En el cuarto y último capítulo, en fin, se analiza el sistema italiano de ejecución de las políticas europeas mediante normas reglamentarias y la posible toma en consideración del mismo para la formulación de propuestas de lege ferenda en relación con el Derecho Español.
Resumo:
EUMETSAT (www.eumetsat.int) e’ l’agenzia europea per operazioni su satelliti per monitorare clima, meteo e ambiente terrestre. Dal centro operativo situato a Darmstadt (Germania), si controllano satelliti meteorologici su orbite geostazionarie e polari che raccolgono dati per l’osservazione dell’atmosfera, degli oceani e della superficie terrestre per un servizio continuo di 24/7. Un sistema di monitoraggio centralizzato per programmi diversi all’interno dell’ambiente operazionale di EUMETSAT, e’ dato da GEMS (Generic Event Monitoring System). Il software garantisce il controllo di diverse piattaforme, cross-monitoring di diverse sezioni operative, ed ha le caratteristiche per potere essere esteso a future missioni. L’attuale versione della GEMS MMI (Multi Media Interface), v. 3.6, utilizza standard Java Server Pages (JSP) e fa uso pesante di codici Java; utilizza inoltre files ASCII per filtri e display dei dati. Conseguenza diretta e’ ad esempio, il fatto che le informazioni non sono automaticamente aggiornate, ma hanno bisogno di ricaricare la pagina. Ulteriori inputs per una nuova versione della GEMS MMI vengono da diversi comportamenti anomali riportati durante l’uso quotidiano del software. La tesi si concentra sulla definizione di nuovi requisiti per una nuova versione della GEMS MMI (v. 4.4) da parte della divisione ingegneristica e di manutenzione di operazioni di EUMETSAT. Per le attivita’ di supporto, i test sono stati condotti presso Solenix. Il nuovo software permettera’ una migliore applicazione web, con tempi di risposta piu’ rapidi, aggiornamento delle informazioni automatico, utilizzo totale del database di GEMS e le capacita’ di filtri, insieme ad applicazioni per telefoni cellulari per il supporto delle attivita’ di reperibilita’. La nuova versione di GEMS avra’ una nuova Graphical User Interface (GUI) che utilizza tecnologie moderne. Per un ambiente di operazioni come e’ quello di EUMETSAT, dove l’affidabilita’ delle tecnologie e la longevita’ dell’approccio scelto sono di vitale importanza, non tutti gli attuali strumenti a disposizione sono adatti e hanno bisogno di essere migliorati. Allo stesso tempo, un’ interfaccia moderna, in termini di visual design, interattivita’ e funzionalita’, e’ importante per la nuova GEMS MMI.
Resumo:
Recentemente, vari ricercatori si sono concentrati sulle proprietà funzionali dei muscoli, sulla meccanica e sulla cinematica legata al volo, ma senza la possibilità di consultare un’adeguata letteratura poiché assente o incompleta. Si è quindi ritenuto utile studiare la miologia della regione della spalla e del braccio di specie non in precedenza esaminate e che mostrassero differenti stili di volo, al fine di creare una base di informazioni per futuri studi funzionali. Tutte le specie prese in esame sono membri della famiglia degli Accipitridae e nello specifico si sono selezionati: il Falco pecchiaiolo (Pernis apivorus Linnaeus, 1758), l’Astore comune (Accipiter gentilis Linnaeus, 1758) e lo Sparviero eurasiatico (Accipiter nisus Linnaeus, 1758). Questi animali attuano stili di volo differenti e sono stati pertanto scelti per capire se diverse performance di volo potessero indurre una differenziazione dell’apparato muscolare. La comparazione dei dati raccolti durante questo studio con quelli presenti in letteratura in altre specie aviarie ha evidenziato che, mentre alcuni muscoli non sembrano andare incontro a grandi modificazioni nei rapaci, altri invece presentano una grande eterogeneità. In particolare, grazie alle caratteristiche dei diversi muscoli, si è potuto raggruppare questi ultimi in base a possibili funzioni comuni: a) muscoli che concorrono a stabilizzare l’ala rispetto al tronco e che assorbono le forze generate durante il volo; b) muscoli con possibile ruolo nel controllo della rotazione dell’omero; c) muscoli con possibile funzione propriocettiva. Il presente studio ha inoltre evidenziato, nei muscoli esaminati, alcune similitudini e molteplici peculiarità anatomiche non precedentemente segnalate in letteratura. Si ritiene che questo studio macroscopico possa rappresentare un punto di partenza per futuri studi microscopici o elettrofisiologici, a dimostrazione dell’importanza della dissezione quale primo strumento di indagine.
Resumo:
Le tematiche presentate in questa tesi fanno parte di una disciplina in ampio sviluppo nella ricerca scientifica moderna denominata “Dronistica”. I droni possiedono caratteristiche fisiche differenti in base alle esigenze dettate dall'ambito di utilizzo. La dronistica è infatti una disciplina molto varia e completa grazie alla versatilità dei dispositivi utilizzati, principalmente però tratta aeromobili a pilotaggio remoto e la loro applicazione nella computer vision. Nonostante il ricco hardware ed i molteplici software attualmente a disposizione dei ricercatori, questo settore è attualmente nelle prime fasi di vita; le prospettive di miglioramento e di sviluppo infatti sono ampie ed in mano a chi si occuperà di effettuare operazioni di ricerca e sperimentazione in tale campo. Nel seguente lavoro viene presentata la dronistica sotto ogni suo aspetto fondamentale, ponendo particolare attenzione ai dettagli tecnici ed alle applicazioni presenti e future. Il lavoro svolto inizia descrivendo la storia dei droni, presentando una panoramica sui modelli, le normative attualmente in vigore ed una classificazione delle applicazioni. La parte centrale della tesi tratta invece gli aspetti tecnici della dronistica, descrivendo le tecnologie hardware e le tecnologie software attualmente disponibili sul mercato. L'ultima parte descrive invece il legame tra i droni e la computer vision, il loro interfacciamento, le applicazioni ed i vantaggi di tale combinazione, mostrando inoltre casi di studio di diverse facoltà tra cui quella di Ingegneria e Scienze Informatiche di Cesena. Infine termina con una conclusione riguardante il lavoro svolto ed una prospettiva sugli sviluppi futuri.
Resumo:
Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.
Resumo:
La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.
Resumo:
Un noto centro di ricerca europea ha recentemente modificato un jet convenzionale di classe CS-25 in una piattaforma scientifica. Durante il processo di certificazione delle modifiche, l’impatto delle stesse sulle prestazioni è stato studiato in modo esaustivo. Per lo studio delle qualità di volo, i piloti collaudatori hanno sviluppato una procedura di certificazione ad hoc che consiste in test qualitativi separati della stabilità longitudinale, laterale e direzionale. L’obiettivo della tesi è analizzare i dati di volo, registrati durante i test di collaudo, con l'obiettivo di estrarre informazioni di carattere quantitativo circa la stabilità longitudinale del velivolo modificato. In primo luogo sono state analizzate tre diverse modifiche apportate all’aeromobile e successivamente i risultati sono stati messi a confronto per capirne l’influenza sulle qualità di volo dell’aeromobile. Le derivate aerodinamiche sono state stimate utilizzando la cosiddetta “identificazione dei parametri”, che mira a replicare le variabili registrate durante i test di volo, variando un dato insieme di coefficienti all’interno del modello linearizzato della dinamica dell’aeromobile. L'identificazione del modo di corto periodo ha consentito l'estrazione dei suoi parametri caratteristici, quali il rapporto di smorzamento e la frequenza naturale. La procedura ha consentito inoltre di calcolare il cosiddetto “Control Anticipation Parameter” (CAP), parametro caratterizzante delle qualità di volo di un aeroplano. I risultati ottenuti sono stati messi a confronto con i requisiti prescritti dalla normativa MIL-STD-1797-A, risultando conformi al livello più alto di qualità di volo.
Resumo:
I cambiamenti climatici dovuti all’immissione in atmosfera dei gas serra costringono alla ricerca di possibili soluzioni per la loro riduzione. Una risposta potrebbe essere rappresentata dall’impiego di calcestruzzi geopolimerici in quanto riducono notevolmente l’emissione in atmosfera di anidride carbonica rispetto ai calcestruzzi tradizionali. In letteratura sono numerosi gli studi di calcestruzzi geopolimerici realizzati mediante trattamenti termici applicati dopo le operazioni di confezionamento. Pochissime sono invece le ricerche effettuate su calcestruzzi geopolimerici prodotti senza trattamenti termici; in questa tesi sperimentale si è voluto indagare quest’ultimo tipo di conglomerati. In particolare si è studiato il mix design del calcestruzzo geopolimerico partendo dalla formulazione del calcestruzzo tradizionale. Da subito si è posto il problema di quale agente riduttore di acqua utilizzare. Pertanto è stata predisposta una sperimentazione di diversi tipi di fluidificanti e superfluidificanti su campioni di malta geopolimerica. In seguito sono stati testati diversi conglomerati geopolimerici con propri mix design, derivati in parte da esempi in letteratura, al fine di conseguire un accettabile valore di resistenza meccanica a compressione. Nella prospettiva di un possibile utilizzo in cantiere è stata indagata con particolare attenzione, la lavorabilità delle malte e dei calcestruzzi geopolimerici attraverso prove di consistenza, ponendola in relazione alle malte e i calcestruzzi cementizi. Sono state inoltre analizzate le caratteristiche dei materiali prodotti allo stato indurito, quali densità, assorbimento di acqua, modulo elastico e resistenza meccanica. Infine, è stata analizzata la fattibilità di un possibile utilizzo in cantiere.