906 resultados para lambda-calcolo, teoremi di separazione, risorse, espansione di Taylor
Resumo:
Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.
Resumo:
Il lavoro di tesi svolto si colloca nell’ambito dei sistemi di determinazione del centro di massa di una specifica classe di satelliti definiti, in gergo, microsatelliti. Il metodo concepito è basato su un simulatore di calcolo del centro di gravità, implementato in ambiente MATLAB. Attraverso l’astrazione matematica del modello fisico, di cui si propone un primo concept anch’esso modellato mediante software CAD durante lo svolgimento della tesi, è possibile determinare il centro di massa del corpo in esame. Esso è stato definito come il punto medio del segmento di minima distanza tra due particolari rette. Gli obiettivi fissati presupponevano che tale dispositivo avesse una buona affidabilità, risultasse di semplice realizzazione e di facile utilizzo.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.
Resumo:
Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.
Resumo:
Il recente sviluppo commerciale di smartphone, tablet e simili dispositivi, ha portato alla ricerca di soluzioni hardware e software dotate di un alto livello di integrazione, in grado di supportare una potenza di calcolo e una versatilità di utilizzo sempre più crescenti, pur mantenendo bassi i consumi e le dimensioni dei dispositivi. Questo sviluppo ha consentito parallelamente a simili tecnologie di trovare applicazione in tanti altri settori, tra i quali quello biomedicale. Il lavoro esposto in questa tesi si inserisce nel contesto appena descritto e, in particolare, consiste nello sviluppo di un sistema WBAN ideato per garantire maggiore flessibilità, controllo e personalizzazione nella terapia riabilitativa dei pazienti affetti da Morbo di Parkinson. In questo campo è stata dimostrata l'efficacia, in termini di miglioramento delle condizioni di vita dell'individuo, dell'esercizio fisico e in particolare di una serie di fisioterapie riabilitative specifiche. Tuttavia manca ancora uno strumento in grado di garantire più indipendenza, continuità e controllo,per le persone affette da MP, durante l'esecuzione di questi esercizi; senza che sia strettamente necessario l'intervento di personale specializzato per ogni seduta fisioterapeutica. Inoltre manca un sistema che possa essere comodamente trasportato dal paziente nelle attività di tutti i giorni e che consenta di registrare e trasmettere eventi particolari legati alla patologia, come blocchi motori e cadute accidentali. Il presente lavoro di tesi tratta della realizzazione di un Firmware per la gestione di un Nodo Centrale che funge da master in una rete WBAN a tre nodi. L'obbiettivo è quello di integrare in tale firmware le funzioni di acquisizione dati dai sensori on-board, comunicazione tra i nodi della rete e gestione delle periferiche hardware secondarie; in particolare per lo sviluppo è stato usato un Sistema Operativo Real-Time (RTOS) del quale sono esposti vantaggi e svantaggi dell’utilizzo.
Resumo:
Si ha in questa situazione particolare un progetto nel quale un’azienda di servizi, “Unicredit Business Integrated Solutions”, deve soddisfare una richiesta di un’azienda cliente, Equitalia Giustizia, per l’intestazione al Fondo Unico Giustizia di risorse finanziarie. L’ottica di analisi di questo progetto tiene conto dell’utilizzo delle risorse, del valore e delle probabilità di successo.
Resumo:
Per poter far fronte al continuo aumento della popolazione mondiale, al rapido esaurimento di molte risorse, alle sempre maggiori pressioni sull’ambiente ed ai cambiamenti climatici, l’Europa deve optare per un approccio radicalmente diverso nei confronti di produzione, consumo, trasformazione, stoccaggio, riciclaggio e smaltimento delle risorse biologiche. Al riguardo la strategia “Europa 2020” auspica lo sviluppo della bioeconomia in quanto elemento chiave per consentire una crescita intelligente e verde in Europa (Commissione Europea, 2012). Tuttavia il successo di questo settore è strettamente legato alla capacità di scegliere la strategia ottimale e le azioni efficienti in modo da creare un ambiente favorevole allo sviluppo di nuove idee ed iniziative imprenditoriali (Fucci, 2014). Questo è proprio uno degli obiettivi della tesi svolta, che descrive il progetto Biohorizons, rivolto non solo a mappare l’attuale panorama europeo nell’ambito della bioeconomia ma anche ad identificare eventuali ostacoli alla crescita e a comprendere le modalità più opportune a sostenere questo settore. Si è deciso inoltre di effettuare alcune interviste al fine di integrare le informazioni ottenute durante la realizzazione del progetto. In aggiunta, un altro obiettivo della tesi consiste nello sviluppo di una serie di indici finalizzati ad aiutare la classificazione delle bioraffinerie sulla base della loro complessità, così da offrire uno strumento utile a sostenere certe scelte dei decisori pubblici e privati.
Resumo:
Il Palazzo Borsari, ora Palazzo Rossi, situato a Finale Emilia in provincia di Modena, viene edificato intorno alla fine del XVIII secolo. A partire dal 2012 il Palazzo muta il suo valore identitario: da edificio rappresentativo della città, che conserva esternamente il suo aspetto originario, a testimonianza del sisma che colpisce gravemente Finale Emilia. La prima parte di questa Tesi riguarda la conoscenza del manufatto,acquisita a seguito di un lavoro di ricerca archivistica condotto parallelamente ad un rilievo che combina diverse tecnologie. La seconda parte riguarda, invece, la valutazione del rischio sismico,eseguita secondo le direttive delle “Linee Guida per la valutazione e riduzione del rischio sismico del patrimonio culturale – allineamento alle nuove Norme tecniche per le costruzioni” (D.M. 14/01/2008). Il calcolo è stato condotto fino al livello di conoscenza LV1, che consiste nell’analisi qualitativa e nella valutazione con modelli meccanici semplificati. Le prime due parti sono state punto di partenza per il progetto di restauro, sviluppato secondo un duplice aspetto: da un lato il consolidamento e la conservazione del manufatto, dall’altro il reintegro delle lacune secondo una rilettura di ciò che resta e il recupero dell’immagine persa.
Resumo:
La crescente espansione del traffico aereo degli ultimi anni obbliga i progettisti delle infrastrutture aeroportuali ad analizzare nel dettaglio i vari processi presenti negli aeroporti. Tali processi possono essere relativi al terminal, e quindi legati ai passeggeri, e relativi alle operazioni di volo, e pertanto legati agli aeromobili. Una delle aree più critiche dell’infrastruttura aeroportuale è il Terminal, in quanto è l’edificio che permette il trasferimento dei passeggeri dal sistema di trasporto terrestre a quello aeronautico e viceversa. All’interno del Terminal si hanno diversi processi, intesi come procedure, azioni o misure, che il passeggero è tenuto a sostenere prima, durante e dopo la partenza. L’aspetto più critico, per ciò che concerne i rischi di congestione dovuti alla molteplicità di processi, è il viaggio del passeggero in partenza. Il passaggio tra processi successivi deve essere visto con l’obiettivo di rendere il percorso del passeggero il più facile e semplice possibile. Nel presente elaborato si vuole focalizzare l’attenzione sui processi di gestione dei passeggeri presenti nei terminal aeroportuali valutandone le rispettive criticità. Per una buona analisi di questi processi bisognerebbe valutare il sistema reale. Per far fronte a questa necessità si fa uso della simulazione del sistema reale attraverso software specifici. La simulazione è il processo di progettazione e creazione di un modello computerizzato di un sistema reale. In questo lavoro di tesi, si vogliono, quindi, riportare le peculiarità dei processi che caratterizzano il viaggio dei passeggeri in partenza all’interno dei terminal aeroportuali, e valutarne le criticità attraverso l’applicazione ad un caso reale mediante l’utilizzo di uno dei maggiori software di simulazione in commercio, ovvero Arena Simulation Software della casa americana Rockwell. Pertanto nei primi capitoli vengono descritte le caratteristiche dei processi presenti in un terminal aeroportuale e le proprietà della simulazione. Mentre nei successivi capitoli si è riportato la simulazione di un caso reale effettuata con il software Arena.
Resumo:
Il presente lavoro si inserisce all’interno del progetto che da più di quindici anni si sta portando avanti presso il Laboratorio di Terminologia e Traduzione Assistita (Dipartimento di Interpretazione e Traduzione dell’Università di Bologna) e che riguarda la creazione di risorse terminologiche specifiche per le esigenze professionali e di formazione degli interpreti di conferenza. La peculiarità del Laboratorio risiede nel fatto che gli strumenti terminologici e terminografici sono usati anche per descrivere elementi del lessico naturale: sia le risorse che servono per strutturare un discorso orale (nessi e segnali discorsivi), sia le espressioni linguistiche che, per il loro stretto legame con una determinata lingua-cultura, possono creare problemi traduttivi a livello semantico e sintattico (espressioni idiomatiche, collocazioni, locuzioni, ecc.). Proprio su queste espressioni è incentrato il lavoro di questa tesi; il nucleo è rappresentato dalla creazione di 40 schede terminografiche dedicate a locuzioni italiane che presentano diversi gradi di “fissità” e di idiomaticità. Il termine ‘locuzione’ è stato usato in senso ampio per includere diverse tipologie di espressioni quali collocazioni, espressioni idiomatiche, costruzioni con verbi supporto e locuzioni propriamente dette. Lo scopo principale, infatti, non era costruire una classificazione teorica, bensì creare una risorsa che potesse servire all’interprete nell’ambito sia professionale sia formativo. Le schede, infatti, sono state costruite in modo che possano servire sia come glossario per identificare equivalenti funzionali nelle altre lingue di lavoro (i primi 5 campi di ogni scheda), sia come strumento per sviluppare una competenza lessicale “alta” legata, appunto, alla conoscenza della struttura e dei modi d’uso di espressioni formulari che possono variare sensibilmente da una lingua-cultura a un’altra (gli ultimi 5 campi). Le schede, costruite basandosi su risorse lessicografiche e terminografiche e su un corpus di resoconti di sedute parlamentari, devono essere considerate come il primo passo nella creazione di un database terminologico multilingue.
Resumo:
Il presente lavoro si inserisce nell’ambito del progetto Language Toolkit, portato avanti dalla Camera di Commercio di Forlì-Cesena e dalla Scuola di Lingue, Letterature, Traduzione e Interpretazione di Forlì. Il progetto coinvolge gli studenti della Scuola e le piccole-medie aziende del territorio provinciale e ha due obiettivi principali: creare occasioni di contatto tra il mondo accademico e quello professionale e favorire l’internazionalizzazione delle aziende del territorio. L’azienda con cui si è collaborato è la Pieri s.r.l. di Pievesestina di Cesena, attiva nel settore di confezionamento e movimentazione di carichi pallettizzati. Ci si è occupati principalmente di sistematizzare la terminologia aziendale in ottica trilingue (italiano - inglese - francese), partendo dall’analisi della documentazione aziendale. Sono stati individuati due gruppi di destinatari: i dipendenti dell’azienda e i traduttori esterni a cui essa ricorre saltuariamente. Viste le esigenze molto diverse dei due gruppi, sono stati elaborati due termbase con caratteristiche distinte, volte a renderli massimamente funzionali rispetto agli scopi. Dopo un breve inquadramento della situazione di partenza focalizzato sul progetto, l’azienda e i materiali di lavoro (capitolo 1), sono state fornite le basi teoriche (capitolo 2) che hanno guidato l’attività pratica di documentazione e di estrazione terminologica (capitolo 3). Sono stati presentati i due database terminologici costruiti, motivando le scelte compiute per differenziare le schede terminologiche in funzione dei destinatari (capitolo 4). Infine, si è tentato di valutare le risorse costruite attraverso la loro applicazione pratica in due attività: l’analisi della versione francese del manuale di istruzioni di una delle macchine Pieri e la traduzione verso il francese di alcune offerte commerciali, svolta utilizzando il programma di traduzione assistita SDL Trados Studio (capitolo 5).
Resumo:
Sono state valutate sperimentalmente le prestazioni di tre diversi collegamenti di Smart Metering in tre ambienti (urbano, sub-urbano e urbano denso) alla frequenza di 169 MHz. Grazie al calcolo del valore di Building Penetration Loss e dei valori di Path Loss è stato possibile stabilire le distanze massime di collegamento accentratore-meter al variare della probabilità di copertura.
Resumo:
Questo elaborato si propone di analizzare le pratiche della localizzazione nel caso particolare del software destinato ai dispositivi mobili. Le innovazioni tecnologiche hanno portato grandi novità nell’ambiente della localizzazione, sia per quanto riguarda l’approccio, sia per le tecnologie e le tecniche utilizzate. In questa tesi di Laurea saranno anche approfonditi gli aspetti di un nuovo approccio alla traduzione in costante espansione, i fenomeni di traduzione collaborativa e traduzione in crowdsourcing. Nel capitolo 1 viene trattato il fenomeno della localizzazione, partendo dalle sue origini e ripercorrendo la sua storia per cercare di darne una definizione condivisa e delinearne le caratteristiche fondamentali, analizzando i vari fenomeni coinvolti nel processo. Il capitolo 2 affronta il tema della traduzione collaborativa e del crescente numero di community online di traduzione in crowdsourcing, un fenomeno recente che desta curiosità, ma anche preoccupazione all’interno degli ambienti della traduzione, in quanto molti sono i dubbi che pervadono i traduttori professionisti circa il ruolo che verrebbero a ricoprire in questo nuovo mercato linguistico. Nel capitolo 3 sono descritti i vari passaggi che un localizzatore deve compiere nel momento in cui affronta un progetto di localizzazione di una app per il sistema operativo Android, partendo dalla ricerca della stessa fino alla pubblicazione della versione localizzata sullo store o sui diversi repository online. Nel capitolo 4, infine, viene analizzato più approfonditamente Crowdin, uno dei sistemi di traduzione assistita collaborativi online, applicandolo nella pratica alla traduzione di una app per dispositivi mobili dotati di sistema operativo Android. Ne verranno descritti i diversi approcci, a seconda che l’utente sia un project manager oppure un traduttore freelance. Per concludere saranno trattati gli aspetti salienti della traduzione pratica di una app per Android.
Resumo:
Nella tesi vengono presentate le analisi, con le relative considerazioni, di attacchi basati su port scanning, in particolar modo ci si sofferma sull'utilizzo di risorse, come impiego di CPU, di banda, ecc., in relazione alle diverse tecniche adoperate. Gli attacchi sono stati rivolti attraverso l'applicativo Nmap contro una rete di honeypot, gestiti e configurati attraverso il software Honeyd. Inoltre vengono fornite tutta una serie di conoscenze necessarie al lettore, le quali risulteranno essenziali per poter affrontare tutti gli argomenti trattati, senza doversi necessariamente informare da altre fonti.