963 resultados para Simulazione System Biology simulazione di sistemi multi-cellulari


Relevância:

50.00% 50.00%

Publicador:

Resumo:

The aim of this thesis is to present exact and heuristic algorithms for the integrated planning of multi-energy systems. The idea is to disaggregate the energy system, starting first with its core the Central Energy System, and then to proceed towards the Decentral part. Therefore, a mathematical model for the generation expansion operations to optimize the performance of a Central Energy System system is first proposed. To ensure that the proposed generation operations are compatible with the network, some extensions of the existing network are considered as well. All these decisions are evaluated both from an economic viewpoint and from an environmental perspective, as specific constraints related to greenhouse gases emissions are imposed in the formulation. Then, the thesis presents an optimization model for solar organic Rankine cycle in the context of transactive energy trading. In this study, the impact that this technology can have on the peer-to-peer trading application in renewable based community microgrids is inspected. Here the consumer becomes a prosumer and engages actively in virtual trading with other prosumers at the distribution system level. Moreover, there is an investigation of how different technological parameters of the solar Organic Rankine Cycle may affect the final solution. Finally, the thesis introduces a tactical optimization model for the maintenance operations’ scheduling phase of a Combined Heat and Power plant. Specifically, two types of cleaning operations are considered, i.e., online cleaning and offline cleaning. Furthermore, a piecewise linear representation of the electric efficiency variation curve is included. Given the challenge of solving the tactical management model, a heuristic algorithm is proposed. The heuristic works by solving the daily operational production scheduling problem, based on the final consumer’s demand and on the electricity prices. The aggregate information from the operational problem is used to derive maintenance decisions at a tactical level.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le galassie passive sono sistemi dominati da popolazioni stellari vecchie, non mostrano tracce di formazione stellare (spettri compatibili con assenza di righe in emissione e caratterizzati da righe in assorbimento), e ci sono evidenze osservative che indicano che le galassie passive abbiano iniziato ad assemblare la loro massa stellare a z. Gli spettri delle galassie passive conservano traccia dei meccanismi fisici ed evolutivi della loro popolazione stellare. Laddove si hanno a disposizione spettri di buona qualità, ovvero che abbiano un rapporto segnale-rumore elevato, l’informazione contenuta in tali spettri può essere dedotta dalla misura dell’intensità di alcune righe in assorbimento. Burstein et al. (1984) hanno costruito un insieme di indici spettroscopici, chiamato sistema di indici di Lick, i quali misurano l’intensità delle principali righe in assorbimento (nella regione di lunghezze d’onda ottiche tra 4000-6000 Å), in termini di larghezza equivalente. in questa tesi è stato adottato il metodo degli indici di Lick per stimare i parametri evolutivi di un campione di galassie passive. Gli obiettivi principali di questa tesi sono due: 1.) studiare l’evoluzione col redshift dei parametri di età, metallicità totale e abbondanze relative di elementi α rispetto al ferro di un campione di galassie estratto spettroscopicamente dalla SDDS (Moresco et al., 2011). L’obiettivo finale è quello di dedurre informazioni sulla storia di formazione stellare delle galassie del campione. 2.) realizzare una simulazione per valutare la possibilità di misurare gli indici di Lick negli spettri di galassie passive che verranno osservate con la missione futura Euclid. Da questo studio è emerso un chiaro andamento evolutivo del campione in linea con quello previsto dallo scenario evolutivo del mass-downsizing, per il quale la SFH di una popolazione stellare è fortemente vincolata dalla massa della popolazione stessa, nel senso che al crescere della massa la formazione delle galassie passive si colloca in epoche progressivamente più remote, e l’assemblaggio della loro massa stellare avviene in tempi scala via via inferiori. Dalla simulazione è emerso un risultato molto importante che deriva dalla robustezza delle misure del D4000 e riguarda la possibilità di determinare il redshift di galassie a z ≥ 1.5 con Euclid.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'argomento del lavoro di tesi svolto ha lo scopo di testare le prestazioni di dispositivi riceventi per Global Navigation Satellite System (GNSS) che utilizzano la tecnologia di posizionamento Real-Time Kinematics (RTK) e valutarne le prestazioni rispetto alle tradizionali riceventi GNSS, nello sviluppo di missioni autonome per veicoli di terra di piccole dimensioni. Per questi esperimenti è stato usato un rover di piccole dimensioni alimentato a batteria, su cui è stato installato un autopilota Pixhawk Cube Orange con firmware Ardupilot, nello specifico Ardurover. Attraverso il software Mission Planner è stato richiesto al rover di effettuare completamente in autonomia delle missioni per testare sia le prestazioni dei sistemi GNSS tradizionali sia dei sistemi RTK. Attraverso i dati raccolti durante le sperimentazioni è stato fatto un confronto tra GNSS e RTK. I dati raccolti sono stati utilizzati per valutare le prestazioni in termini di precisione dei sistemi e non sono state rilevate significative differenze durante l'utilizzo del dispositivo RTK per lo svolgimento della missione richiesta al rover, con l'architettura hardware proposta.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il crescente aumento del numero di dispositivi connessi in rete e delle applicazioni che vengono sviluppate su di essa ha trasformato completamente lo standard delle applicazioni che una volta erano single-user, facendo quindi arrivare lo standard ad un modello multi-utente, dove si ha un ambiente collaborativo e condiviso in cui le azioni di un determinato utente vanno ad influire anche sugli altri. Altra necessità al giorno d'oggi è inoltre che queste applicazioni multi-utente siano anche real-time, ovvero che si aggiornino in tempo reale e che di conseguenza l'azione di un singolo utente debba essere trasmessa e notificata a tutti gli altri in modo che possano gestirla di conseguenza. Lo sviluppo di tali applicazioni risulta quindi particolarmente complesso, tuttavia esistono anche soluzioni architetturali e framework che risultano essere dedicati all'implementazione di tale tipo di applicazioni, il quale obiettivo è quindi quello di semplificarne e velocizzarne lo sviluppo, tramite l'utilizzo di pattern o architetture mirate all'implementazione di un tipo specifico di tali applicazioni. Un esempio di tali soluzioni è Croquet, che permette la creazione di applicazioni real-time multi-utente, senza la necessità di scrivere alcun codice per la parte server o per la gestione delle comunicazioni tra i peer, ma solamente sviluppando il modello del client, ovvero la parte in esecuzione sulla macchina dell'utente. Questa tesi andrà quindi ad effettuare uno studio sul funzionamento e sull'architettura di Croquet proseguendo quindi con lo sviluppo di un middleware che permetta la creazione di applicazioni real-time multi-utente indipendenti dal linguaggio di sviluppo, le quali si potranno quindi appoggiare sull'architettura di Croquet per funzionare e comunicare, avendo quindi a disposizione tutte le garanzie che vengono offerte da Croquet e dalla sua architettura.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo della ricerca è quello di sviluppare un metodo di design che integri gli apporti delle diverse discipline di architettura, ingegneria e fabbricazione all’interno del progetto, utilizzando come caso di studio l’uso di una tettonica ad elementi planari in legno per la costruzione di superfici a guscio da utilizzare come padiglioni temporanei. La maniera in cui ci si propone di raggiungere tale scopo è tramite l’utilizzo di un agent based system che funge da mediatore tra i vari obbiettivi che si vogliono considerare, in questo caso tra parametri estetici, legati alla geometria scelta, e di fabbricazione. Si sceglie di applicare questo sistema allo studio di una struttura a guscio, che grazie alla sua naturale rigidezza integra forma e capacità strutturale, tramite una tassellazione planare della superficie stessa. Il sistema studiato si basa sull’algoritmo di circle relaxation, che viene integrato tramite dei comportamenti che tengano conto della curvatura della superficie in questione e altri comportamenti scelti appositamente per agevolare il processo di tassellazione tramite tangent plane intersection. La scelta di studiare elementi planari è finalizzata ad una maggiore facilità di fabbricazione ed assemblaggio prevedendo l’uso di macchine a controllo numerico per la fabbricazione e un assemblaggio interamente a secco e che non necessita di impalcature . Il risultato proposto è quello quindi di un padiglione costituito da elementi planari ricomponibili in legno, con particolare attenzione alla facilità e velocità di montaggio degli stessi, utile per possibili strutture temporanee e/o di emergenza.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Molti edifici realizzati negli anni ‘80-‘90 sono caratterizzati da impianti con caldaie autonome e nell’ambito degli interventi di riqualificazione energetica solo raramente vengono inserite delle pompe di calore a causa della temperatura di funzionamento dell’impianto, che spesso deve essere mantenuta elevata per i sistemi di emissione a radiatori. Tuttavia la riduzione dei carichi termici dovuti all'isolamento degli edifici consente di utilizzare i terminali esistenti facendoli lavorare a bassa temperatura, con temperature medie di 45-50°C. Obiettivo principale della tesi è quindi la valutazione della fattibilità e dei vantaggi energetici nell’ambito della sostituzione di un sistema di riscaldamento autonomo a gas con un sistema a pompa di calore. Viene preso in esame un edificio condominiale formato da 47 alloggi sito a San Lazzaro di Savena e in particolare verrà valutata la fattibilità di inserire un impianto centralizzato a pompa di calore per ogni corpo scala di cui è composto l’edificio, alimentando l’impianto con pannelli fotovoltaici installati in copertura. Per valutare i vantaggi energetici è stato utilizzato il software di simulazione dinamica Design Builder che consente di analizzare i fabbisogni energetici e la produzione di energia con step orario. Il modello dinamico permette anche di studiare le strategie d’involucro più opportune per diminuire il fabbisogno energetico e poter far lavorare la pompa di calore con i radiatori esistenti a bassa temperatura. I risultati attesi dal lavoro sono molteplici: in primo luogo verificare che la scelta dell’introduzione della pompa di calore consenta all'edificio di ridurre i consumi di energia primaria da fonti non rinnovabili, con lo scopo di portare l’edificio ad una richiesta di quasi zero energia (NZEB) in linea con le nuove normative europee e nazionali; in secondo luogo che l’utilizzo della simulazione oraria consenta di valutare il matching reale tra produzione e consumo di energia.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'obiettivo della seguente tesi è realizzare il progetto preliminare di una camera a vuoto adatta al test di propulsori elettrici in generale. Di seguito, vengono analizzati i principali vantaggi e svantaggi delle tecnologie maggiormente utilizzate nei sistemi per l'alto vuoto, i criteri per la scelta del tipo di architettura di pompaggio più adatta e per il dimensionamento delle pompe. La ricerca di alcuni test, presenti in letteratura, permette di avere parametri di riferimento in base al tipo e alla potenza dei thruster utilizzati. Tramite l'analisi strutturale di una camera sottoposta a pressione esterna è possibile ricavare dimensioni e spessore delle pareti; viene, poi, realizzato un disegno CAD della camera e verificato il dimensionamento strutturale, simulando il carico di pressione esterna, tramite un'analisi FEM-FEA utilizzando il software Solidworks. Infine, vengono elencate le caratteristiche finali della camera a vuoto e, tramite lo studio di modelli matematici che permettono di studiare e quantificare i principali fattori di perdita (outgassing, infiltrazione, throughput del thruster ecc.), si ricava la curva della pressione rispetto al tempo del sistema completo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La previsione ed il controllo dei grandi sistemi dinamici costituiscono due delle principali sfide della scienza contemporanea. Prima degli anni '90 la parola previsione indicava un singolo esperimento numerico, mentre negli ultimi vent'anni ha denotato un insieme di simulazioni/esperimenti. Sostanzialmente non si cerca più di trovare la traiettoria più realistica e verosimile ma si studia l'insieme delle previsioni e l'evolversi della loro distribuzione nel tempo per avere un'idea di quale sia la previsione più probabile. Un sistema dinamico è descritto, in un particolare istante temporale, da una variabile di stato. Esistono poi delle funzioni di stato che hanno come argomento una variabile di stato e mentre il sistema dinamico è in movimento, e dunque mentre le variabili di stato del sistema cambiano nel tempo, anche le funzioni di stato si evolvono. Il lavoro di Bernard Koopman (19/01/1900 - 18/08/1981) si è incentrato sullo studio di tale evoluzione. Koopman formalizzò il problema cercando di trovare un operatore che prendesse una funzione di stato e la "spingesse" in avanti nel tempo. Tale operatore venne chiamato Operatore di Koopman. Il legame sostanziale tra l'operatore di Koopman e il sistema dinamico in questione sta nel fatto che tale operatore agisce sullo spazio delle funzioni di stato del sistema. Inoltre si è scoperto che i suoi autovalori e le sue autofunzioni descrivono completamente il sistema dinamico che vi sta dietro. Questo elaborato introduce l'operatore di Koopman in relazione a sistemi dinamici e mostra come ricavare lo spettro di tale operatore a partire da dati di simulazione. Infine vengono studiate le proprietà spettrali dell'operatore di Koopman nel caso mono-dimensionale degli indici Niño-3 e viene fatta un'analisi dettagliata dei risultati numerici ottenuti, trovando una conferma teorica mediante l'utilizzo dei dischi di Gershgorin.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La complessità dei satelliti e la difficoltà nell’analizzare e risolvere eventuali malfunzionamenti che occorrono dopo la messa in funzione, comportano la necessità di completare estensive campagne di verifica sperimentale prima del lancio in orbita. Nel caso del sistema di determinazione e controllo di assetto (ADCS) è necessario riprodurre a terra le condizioni di microgravità e quasi totale assenza di attrito che si riscontrano in orbita. Per simulare l’ambiente spaziale a terra si usano quindi dei banchi prova progettati e costruiti appositamente per questo scopo: vengono solitamente impiegati dei cuscinetti ad aria sferici, piani oppure di entrambi i tipi per dare al sistema da verificare gradi di libertà rotazionali. Il Laboratorio Microsatelliti Microsistemi Spaziali dell’Università di Bologna ha sviluppato un banco prova in cui possono essere utilizzati alternativamente due cuscinetti sferici, uno realizzato in PVC e l’altro in alluminio. Al fine di certificare l’affidabilità dei risultati ottenuti dalle prove sperimentali, è necessario caratterizzare tutte le fonti di disturbo e in particolare verificare che i disturbi introdotti dai cuscinetti siano sufficientemente bassi da assicurare una fedele simulazione dell’ambiente spaziale. Nel presente elaborato è descritta la progettazione e la realizzazione di una piattaforma sperimentale necessaria per quantificare le coppie di disturbo dei due cuscinetti utilizzati presso il laboratorio. I risultati sperimentali ottenuti sono stati comparati con un modello analitico ricavato da precedenti conclusioni pubblicate nella letteratura scientifica. In seguito, la tesi esamina l’approccio utilizzato per stimare le coppie di disturbo e compara i risultati per entrambi i cuscinetti disponibili. Il lavoro svolto mette a servizio del laboratorio gli strumenti necessari a dimensionare i cuscinetti che verranno sviluppati e utilizzati in futuro.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Obiettivo dello studio condotto è l’implementazione di cicli di operazioni per l’assemblaggio automatizzato di componenti che costituiscono un sistema di trasporto a catena presente in alcune macchine automatiche. L’automazione del processo, fino ad oggi svolto manualmente, prevede l’utilizzo di un robot e, per il controllo di quest’ultimo, di un sistema di visione artificiale. L’attività di tirocinio associata alla tesi di laurea, che ha incluso una parte sperimentale oltre alla scrittura degli algoritmi di controllo del robot, è stata svolta all’interno del laboratorio TAILOR (Technology and Automation for Industry LabORatory) presso Siropack Italia S.r.l dove è presente una cella dotata di robot antropomorfo (Mitsubishi Electric) e di sistema di visione artificiale con camere 2D (Omron). La presenza di quest’ultimo è risultata strategica in termini di possibilità di adattare il montaggio anche a diversi posizionamenti degli oggetti all’interno dello spazio di lavoro, fermo restando che gli stessi risultassero appoggiati su una superficie piana. In primo luogo, affinché fosse garantita la ripetibilità del processo, sono state testate le prestazioni del sistema di visione tramite opportuna calibrazione della camera e del sistema di illuminazione ad esso collegata, al fine di ottenere un’acquisizione delle immagini che fosse sufficientemente robusta e risoluta mediante lo sfruttamento del software di elaborazione Omron FH Vision System. Un’opportuna programmazione della traiettoria del robot in ambiente di simulazione RT Toolbox 3, software integrato nel sistema di controllo del robot Mitsubishi Electric, ha infine consentito le regolari operazioni di assemblaggio, garantendo un processo affidabile ed, allo stesso tempo, adattabile ad ambienti eventualmente non strutturati in cui esso si trova ad operare.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questo studio è l’implementazione di un sistema di navigazione autonomo in grado di calcolare la traiettoria di un mezzo aereo, noti che siano a priori dei punti di posizione detti waypoint. A partire da questa traiettoria, è possibile ottenere la sua rappresentazione in un codice che mette a disposizione immagini satellitari e ricavare le viste del terreno sorvolato in una serie di punti calcolati, in modo da garantire in ogni sequenza la presenza di elementi comuni rispetto a quella precedente. Lo scopo della realizzazione di questa banca dati è rendere possibili futuri sviluppi di algoritmi di navigazione basati su deep learning e reti neurali. Le immagini virtuali ottenute del terreno saranno in futuro applicate alla navigazione autonoma per agricoltura di precisione mediante droni. Per lo studio condotto è stato simulato un generico velivolo, con o senza pilota, dotato di una videocamera fissata su una sospensione cardanica a tre assi (gimbal). La tesi, dunque, introduce ai più comuni metodi di determinazione della posizione dei velivoli e alle più recenti soluzioni basate su algoritmi di Deep Learning e sistemi vision-based con reti neurali e segue in un approfondimento sul metodo di conversione degli angoli e sulla teoria matematica che ne sta alla base. Successivamente, analizza nel dettaglio il processo di simulazione della navigazione autonoma e della determinazione della traiettoria in ambiente software Matlab e Simulink, procedendo nell’analisi di alcuni casi di studio in ambienti realistici. L’elaborato si conclude con un breve riepilogo di quanto svolto e con alcune considerazioni sugli sviluppi futuri.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Gli UAV, o meglio conosciuti come ‘droni’, sono aeromobili a pilotaggio remoto il cui utilizzo si estende dal settore militare a quello civile. Quest’ultimi, possono essere attrezzati con numerosi dispositivi accessori, come ad esempio disturbatori di frequenze. La simbiosi UAV-jammer attacca le comunicazioni wireless tramite interferenze a radiofrequenza, per degradare o interrompere il servizio offerto dalle reti. Questo elaborato, si concentra sull’analisi di algoritmi di localizzazione passiva, per stimare la posizione dell’UAV e interrompere l’interferenza. Inizialmente, viene descritto il segnale emesso dall’UAV, che utilizza lo standard di comunicazione 802.11a. A seguire, dato che la localizzazione passiva si basa sulle misure TDOA rilevate da una stazione di monitoraggio a terra, vengono presentati tre algoritmi di stima TDOA, tra i quali fast TDOA, adaptive threshold-based first tap detection e un algoritmo sviluppato per i nuovi sistemi GNSS. Successivamente, vengono esaminati tre algoritmi di localizzazione passiva, che sfruttano il principio dei minimi quadrati (LS), ovvero il CTLS, LCLS e CWLS. Infine, le prestazioni degli algoritmi di localizzazione vengono valutate in un ambiente di simulazione realistico, con canale AWGN o con canale ITU Extended pedestrian A.