938 resultados para Reti calcolatori Protocolli comunicazione Gerarchie protocolli Software Defined Networking Internet


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The study of the objects LaTène type found in middle-eastern alpine region (Trentino Alto Adige-Südtirol, Engadina, North Tirol, Voralberg and Villach basin) is aimed to a better comprehension of the complex net of relationships established among the Celts, settled both in the central Europe territories and, since the IV century b.C., in the Po Plain, and the local populations. The ancient authors, who called the inhabitants of this area Raeti, propose for this territory the usual pattern according to which, the population of a region was formed consequently to a migration or was caused by the hunting of pre-existing peoples. The archaeologists, in the last thirty years, recognized a cultural facies typical of the middle-eastern alpine territory during the second Iron Age, and defined that as Fritzens-Sanzeno culture (from the sites of Fritzens, Inn valley, and Sanzeno, Non Valley). The so-called Fritzens-Sanzeno culture spread out without breaks from the material culture of the final Bronze Age and the first Iron Age. This local substratum, characterized by a ceramic repertoire strongly standardized, by peculiar architectural solutions and by a particular typology of rural sacred places (Brandopferplätze), accepted, above all during the second Iron Age, the strong influences coming from the Etruscan world and from the Celtic one (evident in the presence of objects of ornament, of glass artefacts, of elements of the weaponry and of coins). The objects LaTène type become, with different degrees of reliability, important markers of the relationships existing between the Celts and the Raeti, although the ways of interaction (cultural influence, people's movements, commercial exchanges, gifts among élites etc.) is not still clear. The revision of published data and the study of unpublished materials allows to define a rich and articulated picture both to chronological level and to territorial one.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di ricerca intende analizzare l’importanza dei modelli organizzativi a reti per rispondere alla sfida della complessità del momento storico, politico, sociologico, economico; in modo particolare in Sanità per rispondere all’esigenza di mettere al centro la persona nel percorso di cura ed ottenere una migliore integrazione delle cure. Sebbene i vantaggi delle reti siano bene descritti in letteratura sono ancora pochi gli studi nell’ambito della valutazione. Il caso di studio ha riguardato la rete oncologica romagnola così come percepita dagli informatori chiave, dagli operatori (medici, infermieri, amministrativi) e dalle persone con esperienza di tumore. Dall’analisi degli informatori chiave emerge forte che la rete nasce per dare risposte di qualità ai bisogni dei pazienti, mentre per gli operatori quanto sia importante la dimensione delle relazioni umane e avere valori condivisi per raggiungere obiettivi di efficacia e qualità delle cure. Per quanto riguarda invece la percezione delle persone con esperienza di tumore si rileva quanto sia importante l’appropriatezza della traiettoria di cura nonché l’avere continuità in un percorso, già di per sé difficile, oltre all’importanza dell’umanizzazione dei servizi e della corretta comunicazione medico paziente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si è consolidata nell’analisi dell’impatto dei social networks nella costruzione dello spazio pubblico, nella sfera di osservazione che è la rete e il web2.0. Osservando che il paradigma della società civile si sia modificato. Ridefinendo immagini e immaginari e forme di autorappresentazione sui new media (Castells, 2010). Nel presupposto che lo spazio pubblico “non è mai una realtà precostituita” (Innerarity, 2008) ma si muove all’interno di reti che generano e garantiscono socievolezza. Nell’obiettivo di capire cosa è spazio pubblico. Civic engagement che si rafforza in spazi simbolici (Sassen, 2008), nodi d’incontro significativi. Ivi cittadini-consumatori avanzano corresponsabilmente le proprie istanze per la debacle nei governi.. Cultura partecipativa che prende mossa da un nuovo senso civico mediato che si esprime nelle “virtù” del consumo critico. Portando la politica sul mercato. Cultura civica autoattualizzata alla ricerca di soluzioni alle crisi degli ultimi anni. Potere di una comunicazione che riduce il mondo ad un “villaggio globale” e mettono in relazione i pubblici connessi in spazi e tempi differenti, dando origine ad azioni collettive come nel caso degli Indignados, di Occupy Wall Street o di Rai per una notte. Emerge un (ri)pensare la citizenship secondo due paradigmi (Bennett,2008): l’uno orientato al governo attraverso i partiti, modello “Dutiful Citizenship”; l’altro, modello “Self Actualizing Citizenship” per cui i pubblici attivi seguono news ed eventi, percepiscono un minor obbligo nel governo, il voto è meno significativo per (s)fiducia nei media e nei politici. Mercato e società civile si muovono per il bene comune e una nuova “felicità”. La partecipazione si costituisce in consumerismo politico all’interno di reti in cui si sviluppano azioni individuali attraverso il social networking e scelte di consumo responsabile. Partendo dall’etnografia digitale, si è definito il modello “4 C”: Conoscenza > Coadesione > Co-partecipazione > Corresposabilità (azioni collettive) > Cultura-bility.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il mio progetto di ricerca è nato da una riflessione concernente una domanda fondamentale che si pongono gli studiosi della comunicazione digitale: le attuali tecnologie mediali che hanno creato nuovi modelli comunicativi e inaugurato inedite modalità di interrelazione sociale conducono a un dualismo digitale o a una realtà aumentata? Si è cercato di dare una risposta a questo interrogativo attraverso un’indagine compiuta su un social network, Facebook, che è la piattaforma digitale più diffusa nel mondo. L’analisi su Facebook, è stata preceduta da una riflessione sui concetti dello spazio e del tempo elaborati dalla letteratura filosofica e sociologica. Tale riflessione è stata propedeutica all’analisi volta a cogliere l’impatto che hanno avuto sulla relazionalità intersoggettiva e sulle dinamiche di realizzazione del sé l’interazione semantica nello spazio delimitato della piazza tradizionale, la molteplicità e la potenza seduttiva delle offerte comunicative dei media elettronici nella estensione della piazza massmediale e soprattutto la nascita e l’affermazione del cyberspazio come luogo della comunicazione nella piazza digitale. Se la peculiarità della piazza tradizionale è nel farsi dei rapporti face to face e quella della piazza massmediale nella funzione rilevante della fonte rispetto al destinatario, la caratteristica della piazza digitale consiste nella creazione autonoma di un orizzonte inclusivo che comprende ogni soggetto che si collega con la rete il quale, all’interno del network, riveste il doppio ruolo di consumatore e di produttore di messaggi. Con l’avvento dell’online nella prassi della relazionalità sociale si producono e si attuano due piani di interazioni comunicative, uno relativo all’online e l’altro relativo all’offline. L’ipotesi di lavoro che è stata guida della mia ricerca è che la pervasività dell’online conduca all’integrazione dei due segmenti comunicativi: l’esperienza della comunicazione digitale si inserisce nella prassi sociale quotidiana arricchendo i rapporti semantici propri della relazione face to face e influenzandoli profondamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi è dimostrare come da un’idea progettuale si arriva alla realizzazione di un prodotto finito passando attraverso la sua modelizzazione. In questo caso l’oggetto dell’attività voleva essere quello di risolvere la problematica degli accessi nelle Ztl. Per risolvere questa problematica è sufficiente comunicare l’accesso al comando dei vigili urbani, per questo i canali di comunicazione scelti dall’azienda sono multipli, in particolare nella tesi verrà mostrato in che modo si arriva al prodotto finale attraverso l’attività di modellizzazione, usando il canale APP versione QR-Code.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quadro normativo sui Dispositivi Medici e la sua evoluzione (2007/47,UNI CEI EN ISO 14971). Software DM: processo di certificazione,gestione di reti IT medicali, ruoli e responsabilità (CEI 80001-1). Casi d'uso: Linee guida: MEDDEV e linee guida svedesi più relativi esempi applicabili alle aziende sanitarie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo elaborato ha come argomento lo sviluppo di un progetto informatico creato per mettere in comunicazione tra di loro un sistema di gestione e controllo del ricambio di acqua in una piscina e un dispositivo mobile. Per la realizzazione del sistema di controllo è stata utilizzata una scheda Arduino Mega 2560 munita di modulo Ethernet, mentre, per quello che concerne il dispositivo mobile, la scelta è ricaduta su un device dotato di sistema operativo Android. La comunicazione tra questi due attori è mediata attraverso un server scritto in Java che gira nella stessa rete locale in cui è presente la scheda Arduino. Il progetto può essere inserito nell'ambito dell'Internet of Things, dove ogni oggetto è caratterizzato dalla possibilità di connettersi ad Internet e scambiare informazioni con ogni altro oggetto creando una rete. Questo progetto è suddiviso in tre parti: la prima si occupa della definizione di due protocolli di comunicazione tra le varie componenti, uno per lo scambio di messaggi tra client Android e Server Java e un secondo per quello tra scheda Arduino e Server; la seconda parte è incentrata sulla realizzazione del server Java che rende accessibile la scheda da qualsiasi luogo e permette la raccolta dei dati rilevanti provenienti dalla centralina. L’ultima parte infine è quella relativa allo sviluppo di una applicazione per Android che permette di monitorare il tutto e interagire con la centralina stessa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alcune patologie dell’occhio come la retinopatia diabetica, il pucker maculare, il distacco della retina possono essere curate con un intervento di vitrectomia. I rischi associati all’intervento potrebbero essere superati ricorrendo alla vitrectomia enzimatica con plasmina in associazione o in sostituzione della vitrectomia convenzionale. Inoltre, l’uso di plasmina autologa eviterebbe problemi di rigetto. La plasmina si ottiene attivando il plasminogeno con enzimi quali l’attivatore tissutale (tPA) e l’urochinasi ( uPA ) . La purificazione del plasminogeno dal sangue avviene normalmente attraverso cromatografia di affinità con resina. Tuttavia, le membrane di affinità costituiscono un supporto ideale per questa applicazione poiché possono essere facilmente impaccate prima dell’intervento, permettendo la realizzazione di un dispositivo monouso che fornisce un processo rapido ed economico. Obiettivo di questo lavoro è la preparazione di membrane di affinità per la purificazione del plasminogeno utilizzando L-lisina come ligando di affinità. Per questo scopo sono state usate membrane in cellulosa rigenerata ad attivazione epossidica, modificate con due diversi protocolli per l’immobilizzazione di L-lisina. La densità ligando è stata misurata mediante un saggio colorimetrico che usa l’acido arancio 7 come indicatore. La resa di immobilizzazione è stata studiata in funzione del tempo di reazione e della concentrazione di L-lisina. Le membrane ottimizzate sono state caratterizzate con esperimenti dinamici usando siero bovino e umano, i risultati sono stati confrontati con quelli ottenuti in esperimenti paralleli condotti con una resina commerciale di affinità con L-lisina. Durante gli esperimenti con siero, le frazioni provenienti da ogni fase cromatografica sono state raccolte e analizzate con HPLC ed elettroforesi SDS-PAGE. In particolare, l’elettroforesi dei campioni eluiti presenta una banda del plasminogeno ben definita indicando che le membrane di affinità con L-lisina sono adatte alla purificazione del plasminogeno. Inoltre, è emerso che le membrane hanno maggiore produttività della resina commerciale di riferimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di illustrare gli standard IEEE 802.22 WRAN e IEEE 802.16e Mobile WiMAX. Di questi standard verranno analizzate le caratteristiche principali, i metodi di funzoinamento ed alcuni protocolli. Nel primo capitolo viene fatta una breve spiegazione delle tecnologie wireless con un focus sullo spettro radio, sulle tecniche di modulazione dell’onda radio, sugli scenari operativi LOS, nLOS ed NLOS, sulle tecniche di duplexing e le tecniche di accesos multiplo, inoltre vengono brevente illustrate alcune delle problematiche che affliggono le trasmissioni senza fili ed infine vengono illustrate i quattro più comuni livelli di QoS. Nel secondo capitolo viene illustrato lo standard IEEE 802.22 con un focus sullo stato dell’arte della tecnologia WRAN, come si è sviluppato lo standard e per quali motivi è stato redatto, lo spettro di frequeza utilizzato e come, il funzionamento delle Cognitive Radio, i dispositivi che caratterizzano le reti WRAN e la topologia di rete utilizzata. In seguito sono spiegati nello specifico i livelli fisico e MAC e le loro caratteristiche e metodi di funzionamento. Nel terzo capitolo vengono illustrate le caratteristiche dello standard IEEE 802.16e cercando di riprendere gli stessi punti toccati nel capitolo precedente con una caratterizzazione dello standard nei suoi particolari.