486 resultados para indirizzo :: 194 :: Sistemi ed applicazioni informatici
Resumo:
In questa tesi si analizza in parte il Wi-Fi Protected Setup (WPS), standard creato con l’obiettivo di configurare in maniera semplice, sicura e veloce reti Wi-Fi. Dopo avere introdotto lo standard ne vengono presentate le vulnerabilità progettuali ed anche quelle relative a problematiche implementative. In seguito viene mostrato il programma che si è sviluppato per eseguire una delle tipologie di attacchi presentati.
Resumo:
Nel corso del tempo, nell’ambito dell’idrogeologia sono state sviluppate diverse tecniche per la determinazione conducibilità idraulica (K). Negli ultimi decenni sempre maggiori sforzi sono stati compiuti per integrare le tecniche geofisiche a questo specifico settore di ricerca; in particolare le metodologie geoelettriche sono state fonte di molteplici studi per la determinazione indiretta di K. Su questa idea è stato impostato il lavoro presentato in questo elaborato di tesi. Ciò che questo propone è infatti l’esecuzione di test in campo che prevedono il monitoraggio time lapse con tecnologia ERT (Electrical Resistivity Tomography) di un tracciante salino iniettato nel terreno. Il fine ultimo è quello di poter sviluppare una tecnica indiretta per la stima della conducibilità idraulica verticale dei terreni sciolti. Le immagini tomografiche, realizzate in sequenza nel tempo, premettono la visualizzazione l’avanzamento del plume basso resistivo in movimento nel terreno (causato dalla salamoia iniettata). Un successivo confronto grafico fra queste permette di quantificare lo spostamento nel tempo, in modo da calcolare in seguito la velocità di infiltrazione del tracciante, e in ultimo stimare la K del terreno in analisi. I risultati ottenuti con tale metodologia sperimentale, opportunamente elaborati tramite specifici software, sono stati confrontati, dove possibile, con i valori forniti dall’impiego di altre tecniche più tradizionali, in modo da poter valutare la bontà del dato ottenuto. Le aree studio individuate per condurre tali sperimentazioni ricadono all’interno del territorio regionale del Friuli Venezia Giulia, in particolare nell’area di Alta e Bassa pianura friulana. La strumentazione (resistivimetro multicanale VHR X612-EM della MAE-Molisana Apparecchiature Elettroniche) e il software (Res2dinv) per la raccolta e l’elaborazione delle immagini tomografiche sono stati gentilmente messi a disposizione dalla società Geomok s.r.l. del Dott. Geol. Mocchiutti (Udine) con la cui collaborazione è stato realizzato questo elaborato di tesi.
Resumo:
Negli ultimi dieci anni si è rinnovata l’esigenza di sviluppare nuove tecnologie legate alla telemedicina, specie a seguito dello sviluppo dei sistemi di telecomunicazione che consentono ad ogni persona di avere a disposizione sistemi portatili, come gli smartphone, sempre connessi e pronti a comunicare. Lo stesso sviluppo si è avuto all’interno dei sistemi sanitari in cui è diventato fondamentale informatizzare le attività ospedaliere per via del contesto demografico a cui si va incontro: invecchiamento della popolazione e aumento del numero di pazienti affetti da malattie croniche. Tutti questi aspetti portano all’attuazione di un cambiamento strategico. Le Body Area Network, fulcro di questo lavoro di tesi, rappresentano la risposta a questa necessità. Si spiegano l'architettura e le tecnologie abilitanti per la realizzazione di queste reti di sensori, gli standard di comunicazione tramite i quali avviene la trasmissione dei dati e come le reti si interfacciano con i pazienti e le strutture sanitarie. Si conclude con una panoramica sui sensori di una BAN e alcuni esempi in commercio.
Resumo:
Nella tesi, inizialmente, viene introdotto il concetto di Big Data, descrivendo le caratteristiche principali, il loro utilizzo, la provenienza e le opportunità che possono apportare. Successivamente, si sono spiegati i motivi che hanno portato alla nascita del movimento NoSQL, come la necessità di dover gestire i Big Data pur mantenendo una struttura flessibile nel tempo. Inoltre, dopo un confronto con i sistemi tradizionali, si è passati al classificare questi DBMS in diverse famiglie, accennando ai concetti strutturali sulle quali si basano, per poi spiegare il funzionamento. In seguito è stato descritto il database MongoDB orientato ai documenti. Sono stati approfonditi i dettagli strutturali, i concetti sui quali si basa e gli obbiettivi che si pone, per poi andare ad analizzare nello specifico importanti funzioni, come le operazioni di inserimento e cancellazione, ma anche il modo di interrogare il database. Grazie alla sue caratteristiche che lo rendono molto performante, MonogDB, è stato utilizzato come supporto di base di dati per la realizzazione di un applicazione web che permette di mostrare la mappa della connettività urbana.
Resumo:
La diatomea presa in esame in questo studio è Phaeodactylum tricornutum, diatomea marina con simmetria pennata. L’interesse commerciale verso Phaeodactylum tricornutum nasce dal suo alto contenuto di acidi grassi polinsaturi (PUFA), tra cui troviamo alcuni omega 3, come l’acido eicosapentaenoico (EPA) e l’acido docosaesaenoico (DHA) e dalla quantità del polisaccaride di riserva prodotto, il β-1,3 glucano crisolaminarina. E’stata studiata la capacità dei β-1,3 glucani, in particolare della laminarina, di inibire l’attacco cellulare da parte di alcuni batteri dannosi per la salute umana. Anche i pigmenti accessori di questa diatomea in particolare il β-carotene (appartenente ai caroteni) e la fucoxantina (appartenente alle xantofille) possono essere impiegati nella nutraceutica. Negli studi svolti precedentemente sull’effetto di fattori ambientali sulla composizione di questa specie, è stata presa in considerazione solo la produzione di lipidi e non è mai stato seguito contemporaneamente l’andamento di lipidi e polisaccaridi: questo progetto di tesi prevede la valutazione della possibilità di ottenere colture di P. tricornutum ad alto contenuto sia polisaccaridico sia lipidico per applicazioni industriali. Tutto il lavoro di tesi si è svolto presso l’azienda Micoperi Blue Growth (MBG), nello stabilimento di Ortona (CH) in due fasi: nella prima fase l’esperimento è stato condotto in batch su piccola scala e la crescita e la composizione di P. tricornutum sono state seguite in due diversi terreni di coltura: uno ricco in azoto, denominato N, per mezzo del quale si è voluta incrementare la crescita e la biomassa ed uno a ridotto contenuto di azoto, denominato N/3, per indurre la produzione di lipidi e polisaccaridi. Ne è stata seguita la crescita per mezzo di misure di assorbanza, peso secco, pH, conta cellulare, determinazione dei macronutrienti ed è stata analizzata la composizione biochimica con determinazione dei composti polisaccaridici totali, determinazione qualitativa dei polisaccaridi, determinazione della clorofilla a, valutazione quantitativa e qualitativa dei lipidi. E' stato notato che la condizione con un contenuto polisaccaridico e lipidico maggiore è quella con un ridotto contenuto di azoto. Con la seconda fase si è voluto verificare la riproducibilità su larga scala di quanto notato nel primo esperimento in sistemi chiusi industriali. E’stata avviata una monocoltura di Phaeodactylum tricornutum in fotobioreattore (PBR) da 70L in semicontinuo e ne è stata monitorata la crescita misurando assorbanza, peso secco, pH, quantità di macronutrienti nel terreno; la composizione biochimica è stata valutata determinando i polisaccaridi totali e la loro composizione qualitativa, le proteine totali, i lipidi totali e la composizione qualitativa. In conclusione con questo lavoro si è visto il terreno migliore per la produzione di polisaccaridi e lipidi e le tempistiche di produzione in Phaeodactylum tricornutum, e in aggiunta, abbiamo dimostrato che sia contenuti che tempistiche sono riproducubili in un sistema industriale chiuso per produrre biomassa ad alto valore commerciale.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
L’azoto è uno dei prodotti principali dell’industria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso più economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. L’ossigeno diffonde molto più velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design è fondamentale per la performance di un processo PSA. La fase di adsorbimento è seguita da una fase di desorbimento. Il materiale adsorbente può essere quindi riutilizzato nel ciclo seguente. L’assenza di un simulatore di processo ha reso necessario l’uso di dati sperimentali per sviluppare nuovi processi. Un tale approccio è molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, è richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro è stato svolto presso l'Università di Scienze Applicate - Münster, Germania. Argomento di questa tesi è la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con l’obiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa l’ottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello è affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non è ancora pienamente soddisfacente poiché manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetterà in futuro di indagare velocemente nuove possibilità di operazione.
Resumo:
Lo studio dell'ottica si incentra sull'indagine della natura della luce, delle sue proprietà e delle leggi che ne regolano i fenomeni fisici. Si possono, in complessivo, identificare tre branche: l'ottica geometrica, l'ottica ondulatoria e l'ottica quantistica. Quest'ultima esula dalla presente trattazione, che piuttosto si incentra sull'aspetto geometrico ed ondulatorio della radiazione luminosa. Con l'ottica geometrica viene identificato lo studio della luce come propagazione rettilinea di raggi luminosi. Essa include lo studio degli specchi e delle lenti, di particolare interesse per le applicazioni nella strumentazione astrofisica. All'interno del primo capitolo, dunque, sono enunciate le principali leggi che definiscono la propagazione rettilinea della luce, la sua riflessione contro una superficie o la sua rifrazione attraverso due mezzi differenti. L'ottica geometrica, in effettivo, consiste in un caso limite della più generica trattazione fornita dall'ottica ondulatoria. La condizione che demarca la possibilità di approssimare la trattazione nell'ambito geometrico, è definita dalla richiesta che la lunghezza d'onda della radiazione in esame sia di molto inferiore delle dimensioni lineari dell'ostacolo con cui interagisce. Qualora tale condizione non fosse soddisfatta, la considerazione della natura ondulatoria della luce non sarebbe più trascurabile. Nel secondo capitolo dell'elaborato, dunque, vengono presi in esame il modello ondulatorio della radiazione elettromagnetica ed alcuni fenomeni fisici che ne avvalorano la fondatezza; in particolare i fenomeni dell'interferenza e della diffrazione. Infine, nel terzo ed ultimo capitolo, sono affrontati alcuni esempi di applicazioni astrofisiche, sia nell'ambito dell'ottica geometrica che nell'ambito dell'ottica ondulatoria.
Resumo:
L’oggetto della presente tesi di laurea magistrale consiste nello studio di polimeri coniugati nella catena principale, per una loro applicazione come materiali fotoattivi in celle fotovoltaiche. In particolare, sono stati sintetizzati e caratterizzati politiofeni tioalchil sostituiti, funzionalizzati in posizione 3-3' con catene alchiliche di diversa lunghezza e grado di ramificazione (tra cui una chirale), al fine di studiarne l'effetto sulle proprietà ottiche ed elettriche del materiale. I polimeri ottenuti sono stati caratterizzati mediante tecniche spettroscopiche (1H-NMR, UV-PL), cromatografia a permeazione su gel (GPC), analisi termiche (DSC, TGA) e misure elettrochimiche (voltammetria ciclica). Il comportamento chiro-ottico del campione chirale è stato inoltre valutato tramite misure di dicroismo circolare. Si è infine testata l’efficienza delle celle fotovoltaiche ottenute utilizzando i polimeri sintetizzati come materiale fotoattivo.
Resumo:
Questo studio ha condotto allo sviluppo di una nuova e altamente efficiente metodologia per la sintesi di diidropiranoni-spiroossindoli, in alte rese ed eccellenti eccessi enantiomerici. In particolare è stata condotta l’addizione viniloga enantioselettiva tra sistemi 3-alchilidenossindolici e isatine, sfruttando un catalizzatore chirale bifunzionale derivante dalla cincona, in grado di attivare mediante catalisi basica la posizione gamma del suddetto ossindolo e attraverso legame idrogeno l’isatina elettrofilica. Successivamente a questo stadio, in cui si ha la formazione del centro chirale, segue anellazione intramolecolare con formazione di un ciclo lattonico e infine apertura dell’anello ossindolico che dà origine ai diidropiranoni-spiroossindoli enantiomericamente arricchiti.
Resumo:
Oggi il mercato mondiale dell'anidride maleica (AM) è in continua espansione grazie ad un numero sempre crescente di applicazioni finali e sviluppo di nuove tecnologie industriali. La AM viene impiegata nella produzione di resine poliestere insature e resine alchidiche e nella produzione di chemicals a più alto valore aggiunto. Il processo di sintesi è tutt’ora basato sull'ossidazione selettiva del benzene e del n-butano. Con l’aumento delle emissione di gas serra, legate all’impiego di materie di origine fossile e la loro continua diminuzione, si stanno studiando nuovi processi basati su materie derivanti da fonti rinnovali. Tra i vari processi studiati vi è quello per la sintesi di AM, i quali utilizzano come molecola di furfurale, 5-idrossimetilfurfurale e 1-butanolo; tutte queste presentano però il problema di un costo superiore rispetto alle molecole tutt’ora usate. Ad oggi una delle molecole ottenibili da fonti rinnovabili avente un costo competitivo alle materie derivanti da fonti fossili è il bio-etanolo. Essendo nota la possibilità di trasformare dell’etanolo in composti a 4 atomi di carbonio (C4) come 1-butanolo (reazione di Guerbet) e in 1,3- butadiene (processo Lebedev) su ossidi misti Mg/Si e la loro trasformazioni in AM, è’ dunque possibile ipotizzare un processo operante in fase gas che accoppi entrambi i processi. Lo scopo di questo lavoro di tesi è stato quello di effettuare uno studio su sistemi catalitici mediante differenti approcci impiantistici. Il primo ha previsto l’impiego di un sistema detto “a cascata” nel quale è stato accoppiato il sistema misto a base di Mg/Si/O, per la trasformazione dell’etanolo a C4, e il pirofosfato di vanadile (VPP), per l’ossidazione selettiva di quest’ultimi in AM. Il secondo approccio ha previsto l’impiego di un unico sistema multifunzionale in grado di catalizzare tutti gli step necessari. In quest’ultimo caso, i sistemi studiati sono stati il Mg2P2O7 ed un sistema costituito da VPP DuPont sul quale è stato depositato MgO. I catalizzatori sono stati caratterizzati mediante diffrattometria a raggi X, spettroscopia Raman e analisi dell’area superficiale mediante metodo BET, mentre i test catalitici sono stati condotti su un impianto di laboratorio con un reattore assimilabile ad un modello di tipo PFR.
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
In questa tesi abbiamo effettuato la caratterizzazione dinamica del celebre ponte pedonale sito a Vagli di Sotto, in Garfagnana (Lucca) e del suo suolo di fondazione. L’opera fu progettata dall’ing. Riccardo Morandi nel 1953 per mettere in comunicazione l’abitato di Vagli di Sopra con i paesi circostanti, dopo l’allagamento della valle sottostante ad opera di una diga in costruzione nello stesso anno. L’opera è interessante per il modo in cui fu costruita in sito e per il fatto di essere - esempio raro - un ponte con fondazioni sommerse da un invaso artificiale per gran parte del tempo e per essere stato costruito in una zona in cui la progettazione antisismica moderna prevederebbe accortezze molto diverse a livello di progettazione. Abbiamo avuto occasione di effettuare la caratterizzazione dinamica dell’opera e del sottosuolo prima ad invaso completamente svuotato (evento che si verifica in media solo ogni 20 anni, per lavori di manutenzione della diga) e successivamente ad invaso riempito. Questo ha permesso di verificare come e se il livello dell’acqua influenzi la risposta dinamica del ponte. E’ stata infine effettuata un’analisi numerica di risposta sismica locale per stimare le accelerazioni tipiche a cui sarebbe sottoposta la struttura in caso di terremoto e le accelerazioni tipiche con cui tale opera dovrebbe essere progettata o sismicamente adeguata al giorno d’oggi.
Resumo:
In questo progetto di tesi ci si addentrerà nel campo della scansione corporea, e più in generale di qualunque oggetto. In questo ambito le soluzioni proposte sono numerose e questo settore ha vissuto negli ultimi anni un’incredibile crescita, favorita anche dalla nascita delle stampanti 3D. Si può ragionevolmente supporre che tale crescita non sia destinata ad esaurirsi nei prossimi anni; ci sono i presupposti per cui questo settore occupi fette sempre più importanti del mercato. In questa tesi ci si è occupati prevalentemente di tecniche di scansione del corpo umano, in quanto una descrizione geometricamente accurata della superficie corporea riveste una notevole importanza sia nelle applicazioni industriali che nello studio della biomeccanica del movimento. Per quanto riguarda le applicazioni industriali si pensi ad esempio all’utilizzo di scanner 3D in accoppiata alle moderne stampanti 3D per la realizzazione di protesi custom o al comparto sartoriale per il confezionamento di abiti su misura. Nell’ambito della biomeccanica essa può risultare utile sia per quanto riguarda gli aspetti cinematici e dinamici nei campi riabilitativo, ergonomico e sportivo, sia per quanto riguarda la stima delle grandezze antropometriche. Attualmente esistono sistemi di scansione corporea low-cost che si stanno sempre più diffondendo e si può pensare ad un futuro neanche tanto lontano nel quale essi siano presenti in maniera diffusa nelle abitazioni. In tale contesto gli obiettivi di questa tesi sono: 1) Documentare quanto prodotto finora a livello scientifico, brevettuale ed industriale, evidenziando meriti e limiti di ciascuna soluzione. 2) Individuare e valutare la realizzabilità di soluzioni innovative low-cost.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.