967 resultados para orientamento :: 149 :: Operazioni di volo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si pone il duplice obiettivo, da un lato, di seguire e approfondire i lavori di restauro e messa in sicurezza delle facciate di palazzo del Podestà, dall'altro, contemporaneamente, di proporre, sviluppare e sperimentare strumenti digitali da utilizzare durante la progettazione e l'esecuzione degli interventi di Restauro. Il settore del restauro architettonico si presenta, più di tanti altri, caratterizzato dalla molteplicità delle figure che intervengono nel corso del processso produttivo e dalla grandissima varietà e quantità di informazioni che entrano in gioco, partendo dalla fase di rilievo dello stato di fatto, fino all'indispensabile documentazione di fine lavori. Prendendo avvio, dunque, dal tirocinio svolto presso la Leonardo S.r.l. di Bologna, si è svolta una riflessione sui processi gestionali ed operativi legati alle operazioni di restauro e ci si è proposti di sviluppare e proporre alcuni strumenti digitali che, senza stravolgere l'attuale processo produttivo, potessero portare benefici operativi all'attività aziendale, facilitare il controllo ed il feedback da parte del committente e migliorare ed alleggerire l'onere della rendicontazione dei lavori. L'orizzonte di questi strumenti è multiplo: per l'attualità è stata sviluppata, in collaborazione con l'ENEA di Bologna, un'applicazione mobile su piattaforma FileMaker per la gestione delle operazioni di restauro attraverso la creazione di un database per la gestione delle analisi e del cantiere; mentre, per uno sviluppo "a regime" fra qualche anno, si è valutata l'efficacia di tecnologie SfM (Structure from Motion) per il rilievo speditivo e la documentazione. Nell'ottica di sviluppi ancora più lontani, infine, le due fasi saranno riunite nella proposta di tecnologie di realtà aumentata con l'obiettivo futuribile di poter passare direttamente dalla realtà e dal rilievo tridimensionale speditivo al progetto ed alla documentazione, senza dovere necessariamente passare da elaborati grafici bidimensionali. Durante tutte queste fasi lo sviluppo delle tecnologie è proceduto di pari passo con il cantiere di palazzo del Podestà, tanto nelle fasi di approfondita ricerca storica, quanto nella produzione delle schede di intervento. L'occasione della ricerca storica ha anche permesso di stilare un semplice regesto, corredato da immagini e bibliografia che raduna ed integra con materiali inediti i numerosi contributi sul tema che si sono succeduti dalla fine del XIX ai giorni nostri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descrizione e analisi del movimento di piattaforme multirotore tramite modellazione e simulazione computazionale. In particolare è stata analizzata l’attitudine di un quadricottero privo di sistema di controllo automatico. Per la scrittura e l’implementazione degli algoritmi risolutivi è stato utilizzato l’ambiente Matlab. Il codice realizzato permette, dopo successiva introduzione di alcune variabili realative a velivolo ed assetto, di ottenere l’evoluzione di parametri di volo che descrivono lo stato del drone nel tempo attraverso una progressiva integrazione numerica. In questo modo è possibile simulare teoricamente qualunque modello di quadricottero conoscendo i suoi parametri costruttivi, ottenendo così una modellazione preliminare da lanciare nel simulatore. Nella tesi viene utilizzato un unico modello realizzato in CAD Solidworks da cui sono stati ricavati i dati necessari. La tesi si compone di una trattazione semplificata di fattibilità di manovre semplici di un multirotore di tipo quadricottero con un approccio di Eulero-Newton ed, in seguito, in presenza di un carico sospeso tramite cavo considerato inestensibile, si sono analizzate delle evoluzioni nel tempo con un’approccio questa volta lagrangiano. Infine vengono trattati brevemente osservazioni conclusive e possibili sviluppi di questo lavoro di tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si propone di analizzare e dimensionare una missione in orbita bassa per due microsatelliti di osservazione terrestre. I microsatelliti si stanno attualmente diffondendo su larga scala, grazie principalmente ai vantaggi economici garantiti dal fatto di lavorare con masse ridotte. Parallelamente alla diffusione dei microsatelliti, stanno nascendo numerosi progetti per lo sviluppo di sistemi di aviolancio, che consentono di attuare i vantaggi dei microsatelliti anche nella fase più dispendiosa della missione, cioè la messa in orbita. Vengono, inizialmente, introdotti i sistemi coinvolti nella missione, cioè l’aviolanciatore Pegasus XL, due microsatelliti del peso di 100 kg ciascuno, e un motore elettrico ad effetto Hall per ciascun satellite, usato per il trasferimento orbitale. Si introducono poi brevemente le equazioni del moto del razzo e alcuni cenni di meccanica celeste, specialmente quello che riguarda la definizione dei parametri orbitali. Segue la vera e propria analisi di missione, divisa in due parti: la prima relativa alla fase di aviolancio, con l’obbiettivo di stabilire se effettivamente il lanciatore è in grado di portare il payload prestabilito nell’orbita circolare di parcheggio, e di dimensionare alcune variabili di volo, quali l’angolo di traiettoria iniziale e i due tempi di coasting dovuti allo sgancio degli stadi del razzo; la seconda parte verte invece sull’analisi della missione in orbita, specialmente sul trasferimento a bassa spinta dall’orbita di partenza a quella target, tramite il motore ad effetto Hall. Anche in questo caso si vuole verificare se le prestazioni del motore elettrico sono adeguate al tipo di missione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni il mondo ha assistito ad un'espansione esponenziale del mercato mobile, un settore che ha rivoluzionato le nostre vite e le nostre abitudini. Parallelamente, sono entrati in commercio i primi dispositivi commerciali dell'era dell'Internet delle Cose (Internet-of-Things), un paradigma secondo il quale oggetti utilizzati quotidianamente possono dialogare tra loro mediante Internet al fine di migliorare la vita personale e i processi produttivi aziendali. Un'applicazione pratica di Internet-of-Things è costituita dai dispositivi indossabili (wearable) capaci per mezzo di sensori di raccogliere dati sanitari, ambientali e fisici attorno a noi. I dispositivi indossabili attualmente in commercio permettono di collegarsi tramite protocolli e standard come WiFi e Bluetooth ad altri dispositivi, siano essi indossabili, smartphone o computer. Da questo concetto nasce l’idea di far comunicare un indossabile con altri dispositivi utilizzati in un contesto aziendale. In questo documento verrà preso in considerazione un tassello fondamentale nella gestione delle risorse umane e della sicurezza: il controllo degli accessi in un edificio e lo sblocco di un varco, sia esso un tornello, una porta o una serranda. Verrà quindi analizzato e progettato un sistema che possa effettuare le operazioni di timbratura e di apertura di varchi dall'orologio Apple Watch e da iPhone collegandosi ad un terminale dedicato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La rapida diffusione di Sistemi Aerei a Pilotaggio Remoto che si è verificata negli ultimi anni ha portato alla necessità di regolamentare ed armonizzare il loro utilizzo. I vari enti regolatori nazionali hanno dovuto trovare una soluzione a fronte di una serie di incidenti che hanno portato alla luce le lacune normative ed organizzative che ancora esistevano in materia. In Italia, in particolare, l’Ente Nazionale Aviazione Civile (ENAC) ha introdotto da fine 2013 un regolamento, più volte aggiornato e in parte ancora in fase di definizione, che impone delle rigide norme agli operatori dei mezzi a pilotaggio remoto. La presente attività riporta quindi lo sviluppo di un processo di certificazione di un Sistema Aereo a Pilotaggio Remoto ad ala fissa con peso massimo al decollo superiore a 25 kg, che si possa adattare alle più recenti norme presenti nel regolamento. Si presenta quindi lo sviluppo del Manuale di volo e del documento di Valutazione del rischio del mezzo, seguiti dallo studio del programma di attività sperimentale necessario per la certificazione. Infine, nella parte finale dell’elaborato si presentano dei test di volo effettuati seguendo il piano di sperimentazione strutturato e atti a dimostrare l’efficacia di tale pianificazione. Tali voli sono stati condotti infatti con un velivolo con caratteristiche similari a quelle del mezzo oggetto di studio, ma avente dimensioni e peso minori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella regione del TIR, le transizioni spettrali vibro-rotazionali della CO2 sono sfruttate per ricavare la distribuzione di P e T negli esperimenti spaziali. Oltre all’importanza di questi due parametri, la loro conoscenza è necessaria per ricavare la distribuzione di qualsiasi molecola dalle sue transizioni spettrali. Per ricavare P e T si assume di conoscere il VMR della CO2. L’accuratezza con cui si ricava la distribuzione della CO2 insieme a quelle di P e T non è sufficiente. Inoltre, il VMR della CO2 aumenta nel corso degli anni. Per questo, in questa tesi si propone una nuova strategia per misurare la CO2 usando uno strumento satellitare a scansione del lembo. L’idea è quella di sfruttare le transizioni rotazionali pure dell’O2 nella regione del FIR per ricavare P e T. Poiché queste transizioni traggono origine da un momento di dipolo magnetico la loro forza di riga è molto bassa. Tuttavia, grazie alla grande abbondanza dell’O2 in atmosfera e alla lunghezza dei cammini ottici, queste transizioni sono tra le più intense nello spettro atmosferico del FIR. Il satellite considerato è posto su un’orbita quasi polare e lo strumento osserva l’emissione del lembo atmosferico in direzione opposta a quella di volo. Lo strumento ipotizzato è uno spettrometro a trasformata di Fourier con due porte di output ospitanti un detector per la regione del FIR e uno per quella del TIR. La risoluzione spettrale è di 0.004 cm-1. Mentre il NESR è di 5 nW. Il campionamento geometrico verticale dell’atmosfera è di 3 Km mentre quello orizzontale è di circa 100 Km. Usando la teoria dell’optimal estimation sono stati selezionati due set di intervalli spettrali da analizzare, uno per la regione del FIR e l’altro per la regione del TIR. Con queste ipotesi sono stati effettuati test di retrieval su osservati simulati per valutare le performance del sistema ipotizzato. Si è dimostrato che le transizioni della CO2 nella regione del TIR non sono sufficienti per ricavare P e T insieme al proprio VMR con precisione soddisfacente e che l’uso dell’informazione derivante dal FIR fa aumentare la qualità del retrieval. Le performance dell’esperimento permettono di ricavare il VMR della CO2 con una precisione di circa 1 ppm tra 10 Km e 60 Km con una risoluzione verticale di 3 Km e una orizzontale di circa 2.5° di latitudine. Si è quindi dimostrato la validità della strategia proposta in questo studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è quello di descrivere la progettazione e lo sviluppo di un’applicazione per la gestione di un sistema che permetta agli utenti di effettuare operazioni di pagamento, ricarica, check-in e altre funzionalità. Tutte queste operazioni saranno implementate tramite l’utilizzo della tecnologia NFC (Near Field Communication). Il sistema prevede un'applicazione "cassa" per le transazioni e un'applicazione "utente" per permettere al cliente di visualizzare i dati relativi al proprio conto. In questa tesi sarà analizzata l'applicazione "utente".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo spazio duale V* di un K-spazio vettoriale V, con K = R, o C, è definito come l'insieme dei funzionali lineari e continui da V in K. Definendo su di esso le operazioni di somma tra funzionali lineari e di prodotto per scalare, V* acquisisce una struttura di K-spazio vettoriale che risulta molto utile. Infatti il suo studio permette di comprendere meglio le caratteristiche dello spazio V. A tal proposito interviene l'argomento che è oggetto dell'elaborato: il Teorema di Rappresentazione di Riesz. Diversi risultati sono raggruppati sotto questo nome, che deriva dal matematico ungherese Frigyes Riesz, e tutti permettono di caratterizzare chiaramente gli elementi del duale dello spazio a cui si riferiscono. Scopo della tesi è quello di presentare il teorema nelle sue varie forme a partire da una delle più elementari: quella relativa a spazi vettoriali finiti. Ripercorrendo via via le sue generalizzazioni si arriverà all'enunciato inerente allo spazio delle funzioni continue f da X in C che si annullano all'infinito, dove X è uno spazio di Hausdorff localmente compatto. Si vedrà inoltre un esempio di applicazione del teorema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è presentata la misura con il rivelatore ALICE del flusso triangolare, v3, di pioni, kaoni e protoni prodotti in collisioni PbPb a LHC. Il confronto di v3 con le previsioni di modelli idrodinamici permette di vincolare maggiormente le assunzioni sulle condizioni iniziali del sistema presenti nei diversi modelli ed estrarre una stima maggiormente precisa delle proprietà del mezzo come la viscosità. La misura è effettuata nella regione di pseudorapidità centrale sui dati raccolti da ALICE nel 2010 e 2011 e utilizza una tecnica di identificazione basata sia sulla misura della perdita di energia specifica, con la camera a proiezione temporale (TPC), sia la misura della velocità con il sistema a tempo di volo (TOF). La combinazione di entrambe le tecniche permette di separare le diverse specie in un intervallo esteso di impulsi con elevata efficienza e purezza. Per la misura del piano di reazione è stato utilizzato il rivelatore VZERO che misura la molteplicità delle particelle cariche in una regione di pseudorapididisgiunta da quella in cui è misurato v3. La misura ottenuta è confrontata con le previsioni di modelli idrodinamici attualmente più utilizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi, inizialmente, viene introdotto il concetto di Big Data, descrivendo le caratteristiche principali, il loro utilizzo, la provenienza e le opportunità che possono apportare. Successivamente, si sono spiegati i motivi che hanno portato alla nascita del movimento NoSQL, come la necessità di dover gestire i Big Data pur mantenendo una struttura flessibile nel tempo. Inoltre, dopo un confronto con i sistemi tradizionali, si è passati al classificare questi DBMS in diverse famiglie, accennando ai concetti strutturali sulle quali si basano, per poi spiegare il funzionamento. In seguito è stato descritto il database MongoDB orientato ai documenti. Sono stati approfonditi i dettagli strutturali, i concetti sui quali si basa e gli obbiettivi che si pone, per poi andare ad analizzare nello specifico importanti funzioni, come le operazioni di inserimento e cancellazione, ma anche il modo di interrogare il database. Grazie alla sue caratteristiche che lo rendono molto performante, MonogDB, è stato utilizzato come supporto di base di dati per la realizzazione di un applicazione web che permette di mostrare la mappa della connettività urbana.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In collaborazione con la sezione di Bologna dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) si è dato il via ad un progetto mirato alla costruzione di nuove stazioni monitoranti. Stazioni che dovranno avere un basso impatto in termini di costi e consumi energetici, dando contemporaneamente la possibilità di essere pilotate a distanza. Quest’ultimo è un parametro fondamentale perché permetterebbe di interagire con la stazione anche durante il verificarsi di calamità naturali. Per giungere ad una soluzione si è quindi proceduto analizzando i possibili scenari e le soluzioni attualmente impiegate. Valutandone gli aspetti negativi e positivi. Successivamente, terminata la fase di documentazione, si è passati a vagliare le soluzioni tecnologiche attualmente disponibili sul mercato e ad assemblare un prototipo sperimentale. Non appena in possesso di una macchina sulla quale poter effettuare tutte le prove necessarie si è passati alla fase successiva. L’implementazione di test che potessero rappresentare al meglio una situazione reale. Da qui si è giunti ad una conclusione, tenendo in considerazione diversi fattori: le condizioni imposte dall’ambiente durante le operazioni di test ed i risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.