927 resultados para Modello ad Attori, Programmazione Concorrente, Scambio Asincrono di Messaggi, AXUM, .NET Framework


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti ottiche, grazie alla loro elevata capacità, hanno acquisito sempre maggiore importanza negli ultimi anni, sia per via del crescente volume di dati scambiati, legato soprattutto alla larga diffusione di Internet, sia per la necessità di comunicazioni in tempo reale. Dati i (relativamente) lunghi tempi di adattamento, questa tecnologia nativamente non è quella ottimale per il trasporto di un traffico a burst, tipico delle telecomunicazioni odierne. Le reti ibride cercano, quindi, di coniugare al meglio le potenzialità della commutazione ottica di circuito e della commutazione ottica a pacchetto. In questo lavoro, in particolare, ci si è concentrati su un'architettura di rete ibrida denominata 3LIHON (3-Level Integrated Hybrid Optical Network). Essa prevede tre distinti livelli di qualità di servizio (QoS) per soddisfare differenti necessità: - Guaranteed Service Type (GST): simile ad un servizio a commutazione di circuito, non ammette perdita di dati. - Statistically Multiplexed Real Time (SM/RT): simile ad un servizio a commutazione di pacchetto, garantisce ritardo nullo o molto basso all'interno della rete, permette un piccolo tasso di perdita di dati e ammette la contesa della banda. - Statistically Multiplexed Best Effort (SM/BE): simile ad un servizio a commutazione di pacchetto, non garantisce alcun ritardo tra i nodi ed ammette un basso tasso di perdita dei dati. In un nodo 3LIHON, il traffico SM/BE impossibile da servire, a causa ad es. dell'interruzione da parte di pacchetti aventi un livello di QoS più prioritario, viene irrimediabilmente perso. Questo implica anche lo spreco del tempo e delle risorse impiegati per trasmettere un pacchetto SM/BE fino alla sua interruzione. Nel presente lavoro si è cercato di limitare, per quanto possibile, questo comportamento sconveniente, adottando e comparando tre strategie, che hanno portato alla modifica del nodo 3LIHON standard ed alla nascita di tre sue varianti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'avvento di strumenti di osservazione sempre più potenti ha permesso negli ultimi decenni di studiare a fondo gli oggetti che compongono l'universo nonchè di giungere a stabilirne una possibile geometria. Se da un lato i dati di WMAP supportano un determinato scenario ``di consenso'', questo non esclude, tuttavia che anche altre possibili soluzioni cosmologiche possano entrare in gioco una volta che una o più delle assunzioni portanti del modello ΛCDM vengano aggiornate o risultino, alla prova di nuovi fatti, inconsistenti. Ecco quindi che può essere interessante investigare quali implicazioni possano nascere da una scelta diversa del modello. Prenderemo in considerazione cinque modelli: oltre al modello di consenso (ΛCDM), valuteremo anche tre casi limite nel contesto della metrica di Friedmann. Dedicheremo particolare attenzione, infine, al modello dello Stato Stazionario. Studieremo, al variare di questi scenari, la formazione stellare cosmica e con l'utilizzo dei modelli di SSP di Buzzoni (2005) otterremo le proprietà fotometriche di una meta galassia, le quali verranno confrontate con osservazioni recenti (e.g. Madgwick et al. 2002).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La firma grafometrica è la sottoscrizione autografa eseguita con uno stilo elettronico su un dispositivo di acquisizione digitale e rappresenta ad oggi nel panorama delle tipologie di firma elettroniche una realtà a tutti gli effetti realizzabile. Questa tipologia di firma elettronica fonda il proprio valore sulle caratteristiche di universalità, unicità, permanenza e collezionabilità dei dati biometrici. Il successo della firma grafometrica è da ricercare invece nella sua stessa natura di firma, in quanto l'uomo da sempre è stato abituato ad eseguire il gesto dell'apposizione della propria firma autografa a dichiarazione della propria volontà. La profonda informatizzazione degli ultimi anni e la recente normativa hanno quindi permesso di trasferire la semplicità di questo gesto dal contesto analogico a quello digitale. I vantaggi derivanti dall'utilizzo della firma grafomentrica sono molteplici: innanzitutto il suo utilizzo comporta la completa dematerializzazione della gestione documentale aziendale con considerevoli risparmi dati dall'annullamento dei costi di stampa ed archiviazione dei documenti stessi, comporta inoltre una maggiore velocità di esecuzione dei processi documentali (dalla realizzazione dei documenti alla ricerca degli stessi) ed infine rende possibile l’ottenimento di documenti già predisposti per la conservazione a norma (con conseguente mantenimento della validità legale nel tempo). Come conseguenza di questa trasposizione dall'analogico al digitale si sono presentate tuttavia problematiche derivanti dalla natura stessa del nuovo contesto; la realizzazione di soluzioni di firma grafometrica richiede quindi una forte attenzione, al fine di evitare che i dati biometrici possano essere utilizzati impropriamente. Questa tesi è quindi volta a descrivere sia a livello normativo che tecnologico questa tipologia di firma elettronica avanzata. Nel corso della trattazione verranno inoltre fornite delle linee guida per la realizzazione di un corretto processo di apposizione della firma grafometrica a tutela della sicurezza dei dati biometrici dell'individuo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The increase in aquaculture operations worldwide has provided new opportunities for the transmission of aquatic viruses. The occurrence of viral diseases remains a significant limiting factor in aquaculture production and for the sustainability. The ability to identify quickly the presence/absence of a pathogenic organism in fish would have significant advantages for the aquaculture systems. Several molecular methods have found successful application in fish pathology both for confirmatory diagnosis of overt diseases and for detection of asymptomatic infections. However, a lot of different variants occur among fish host species and virus strains and consequently specific methods need to be developed and optimized for each pathogen and often also for each host species. The first chapter of this PhD thesis presents a complete description of the major viruses that infect fish and provides a relevant information regarding the most common methods and emerging technologies for the molecular diagnosis of viral diseases of fish. The development and application of a real time PCR assay for the detection and quantification of lymphocystivirus was described in the second chapter. It showed to be highly sensitive, specific, reproducible and versatile for the detection and quantitation of lymphocystivirus. The use of this technique can find multiple application such as asymptomatic carrier detection or pathogenesis studies of different LCDV strains. The third chapter, a multiplex RT-PCR (mRT-PCR) assay was developed for the simultaneous detection of viral haemorrhagic septicaemia (VHS), infectious haematopoietic necrosis (IHN), infectious pancreatic necrosis (IPN) and sleeping disease (SD) in a single assay. This method was able to efficiently detect the viral RNA in tissue samples, showing the presence of single infections and co-infections in rainbow trout samples. The mRT-PCR method was revealed to be an accurate and fast method to support traditional diagnostic techniques in the diagnosis of major viral diseases of rainbow trout.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Gangli della Base svolgono un importante ruolo nel controllo del movimento volontario: questi nuclei sottocorticali localizzati alla base di entrambi gli emisferi cerebrali sono densamente interconnessi con la corteccia cerebrale, il talamo e il tronco dell’encefalo, ma non con il midollo spinale. Facilitano l’esecuzione di un singolo atto motorio, sopprimendo tutti gli altri. Questa funzionalità ha lo scopo di favorire il comando più appropriato, inibendo i restanti per il tempo necessario. I Gangli della Base fungono da vero e proprio filtro, prendendo informazioni dall'intera corteccia, permettendo il passaggio di alcune e bloccandone altre. Per iniziare, verrà descritta l’anatomia e ogni singola parte che compone questi nuclei, elencando le varie interconnessioni sinaptiche. Successivamente, si passerà alla illustrazione della via diretta e della via indiretta e del meccanismo fisiologico che regola l’apprendimento sinaptico e la selezione di azioni, con annessi i principi teorici che ne costituiscono le fondamenta. Si affronterà il modello sviluppato presso l’Università di Bologna da C. Baston e M. Ursino e verranno mostrate varie simulazioni riguardanti tale modello. In conclusione, si tratteranno la malattia di Parkinson, patologia neurodegenerativa che colpisce principalmente le cellule dopaminergiche di alcune aree dei Gangli della Base, e il morbo di Huntington

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The thesis aims to expose the advances achieved in the practices of captive breeding of the European eel (Anguilla anguilla). Aspects investigated concern both approaches livestock (breeding selection, response to hormonal stimulation, reproductive performance, incubation of eggs) and physiological aspects (endocrine plasma profiles of players), as well as engineering aspects. Studies conducted on various populations of wild eel have shown that the main determining factor in the selection of wild females destined to captive breeding must be the Silver Index which may determine the stage of pubertal development. The hormonal induction protocol adopted, with increasing doses of carp pituitary extract, it has proven useful to ovarian development, with a synchronization effect that is positively reflected on egg production. The studies on the effects of photoperiod show how the condition of total darkness can positively influence practices of reproductions in captivity. The effects of photoperiod were also investigated at the physiological level, observing the plasma levels of steroids ( E2, T) and thyroid hormones (T3 and T4) and the expression in the liver of vitellogenin (vtg1 and vtg2) and estradiol membrane receptor (ESR1). From the comparison between spontaneous deposition and insemination techniques through the stripping is inferred as the first ports to a better qualitative and quantitative yield in the production of eggs capable of being fertilized, also the presence of a percentage of oocytes completely transparent can be used to obtain eggs at a good rate of fertility. Finally, the design and implementation of a system for recirculating aquaculture suited to meet the needs of species-specific eel showed how to improve the reproductive results, it would be preferable to adopt low-flow and low density incubation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi compiuta in questa tesi di laurea è motivata da una passione che fin dall’infanzia ho coltivato: quella per il Giappone. Con il passare degli anni gli aspetti del Giappone che mi hanno stimolato e incuriosito sono evoluti, come la volontà di approfondire una conoscenza sempre più completa di questo popolo e della loro cultura – facendo anche tesoro dell’esperienza di viaggio fatta nel 2012, visitando Tokyo e Kyoto.
 Notai nel mio breve soggiorno a Tokyo un qualcosa che qua non trovavo negli edifici: un eterno conflitto con lo spazio. Sono rimasto sorpreso dagli spazi angusti, dalle dimensioni lillipuziane delle case, spesso caratterizzate da standard qualitativi intollerabili per un occidentale, ma allo stesso tempo mi ha impressionato la tecnologia disponibile per la vita di tutti i giorni, che permetteva di sopperire a queste mancanze o deficit. Kyoto mi ha invece colpito per la tradizione, per la storia, per le sue architetture lignee – una città capace di fare convivere in armonia il passato col presente nel pieno rispetto della natura. I suoi colori, i suoi paesaggi bucolici non li dimenticherò facilmente... Il percorso di analisi che si svolgerà in questa sede includerà, partendo dalla tradizione fino ad arrivare al presente, le tematiche di cui si è appena parlato: casa giapponese, misura, standard, spazio. Si è partiti dall’analisi descrittiva e dalle splendide illustrazioni del zoologo americano Edward Morse, analizzando il suo volume “Japanese Homes and Their Surroundings” pubblicato alla fine del 1800 e divenuto un libro di culto per gli architetti moderni, per poi arricchire l’analisi con le tantissime informazioni e tavole tecniche fornite da Heinrich Engel con il libro “The Japanese House – A tradition for contemporary architecture”, un testo veramente formativo e altamente specifico per l’architettura vernacolare giapponese. Si arricchisce la discussione con Paper e pubblicazioni di professori giapponesi, racconti di narrativa e guide sul Giappone, per poi concludere l’analisi con libri di architettura moderna giapponese come il volume di Naomi Pollock “Modern Japanese House” e riviste quali JA (Japan Architects) per fornire esempi contemporanei di costruzioni residenziali odierne.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La proteina umana HDAC1 fa parte della famiglia delle HDAC (Istone Deacetilasi); questi enzimi, ad azione deacetilasica, catalizzano la reazione di rimozione di un gruppo acetile a livello degli istoni, componenti fondamentali della cromatina, la cui struttura influenza il ciclo cellulare e la regolazione dell’espressione genica. L’importanza della proteina in questione, a scopo terapeutico, risiede nello studio degli inibitori ad essa associati, i quali risultano utili a livello farmacologico, come coadiuvanti nelle terapie per la cura di tumori. La produzione di HDAC1 ha previsto l’utilizzo di due diversi ceppi del batterio Escherichia coli, denominati TOP10 e BW25993, che sono serviti come sistemi “ospiti” per l’inserimento del vettore di espressione pBAD-HDAC1 contenente la porzione di DNA che codifica per la proteina ricombinante. Sono state determinate le condizioni più idonee, per entrambi i sistemi analizzati, in modo da massimizzare l’espressione della proteina indotta mediante aggiunta di arabinosio al terreno di coltura. A seconda della combinazione ceppo-vettore, infatti, il livello di espressione ottenuto cambia significativamente. In seguito, gli estratti proteici totali sono stati sottoposti a purificazione mediante diversi passaggi cromatografici ed è stata determinata la resa finale del processo. La caratterizzazione della proteina ricombinante purificata ha evidenziato una forma aggregata, di tipo ottamerico, che potrebbe influenzare l’attività enzimatica. Per questo motivo sono stati portati avanti numerosi tentativi di dissociazione dell’oligomero incubando HDAC1 con diversi agenti. Un effetto disaggregante è stato osservato solo in presenza di due detergenti, SDS (anionico) e CTAB (cationico), i quali hanno permesso di ottenere la proteina in forma monomerica. Tra i due detergenti, l’SDS è risultato più efficace, mentre per il CTAB si richiedono ulteriori indagini ed approfondimenti. Altri studi, infine, sono auspicabili ai fini di migliorare ulteriormente la fase di espressione, in modo da rendere il protocollo di produzione adatto ad un’applicazione a livello industriale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con l’incremento della popolazione mondiale e la conseguente crescita del fabbisogno di energia dovuta a nuovi lavori e sempre più macchinari in circolazione, è insorta l'esigenza di produrre più energia elettrica. A partire dagli anni ’50 numerosi scienziati hanno analizzato il problema energetico e sono giunti alla conclusione che fonti di energia come petrolio, carbone e gas non erano in grado di soddisfare il bisogno umano sul lungo termine e si è quindi passati alla ricerca di altre fonti di energia come il nucleare. Oggi, grazie ad un progetto ed uno studio di circa 50 anni fa – finalizzato alla alimentazione di satelliti geostazionari - , si sta sempre di più affermando la scelta del fotovoltaico, in quanto rappresenta un’energia pulita e facilmente utilizzabile anche nei luoghi dove non è possibile avere un allaccio alla normale rete elettrica. La ricerca di questo nuovo metodo di produrre energia, che tratta la conversione di luce solare in energia elettrica, si è evoluta, differenziando materiali e metodi di fabbricazione delle celle fotovoltaiche, e quindi anche dei moduli fotovoltaici. Con la crescente produzione di apparati elettronici si è arrivati però ad avere un nuovo problema: il consumo sempre maggiore di silicio con un conseguente aumento di prezzo. Negli ultimi anni il prezzo del silicio è significativamente aumentato e questo va a pesare sull’economia del pannello fotovoltaico, dato che questo materiale incide per il 40-50% sul costo di produzione. Per questo motivo si sono voluti trovare altri materiali e metodi in grado di sostituire il silicio per la costruzione di pannelli fotovoltaici, con il seguire di nuovi studi su materiali e metodi di fabbricazione delle celle. Ma data la conoscenza e lo studio dovuto ai vari utilizzi nell’elettronica del silicio, si è anche studiato un metodo per ottenere una riduzione del silicio utilizzato, creando wafer in silicio sempre più sottili, cercando di abbassare il rapporto costo-watt , in grado di abbassare i costi di produzione e vendita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La massa del quark top è qui misurata per mezzo dei dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con energia nel centro di massa pari ad 8 TeV. Il campione di dati raccolto corrisponde ad una luminosità integrata pari a 18.2 /fb. La misura è effettuata su eventi con un numero di jet almeno pari a 6, di cui almeno due b-taggati (ovvero identificati come prodotto dell’adronizzazione di due quark bottom). Il valore di massa trovato è di (173.95 +- 0.43 (stat)) GeV/c2, in accordo con la media mondiale. The top quark mass is here measured by using the data that have been collected with the CMS experiment in proton-proton collisions at the LHC, at a center-of-mass energy of 8 TeV. The dataset which was used, corresponds to an integrated luminosiy of 18.2 /fb. The mass measurement is carried out by using events characterized by six or more jets, two of which identified as being originated by the hadronization of bottom quarks. The result of the measurement of the top quark mass performed here is: (173.95 +- 0.43 (stat)) GeV/c2, in accordance with the recently published world average.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il compressed sensing è un’innovativa tecnica per l’acquisizione dei dati, che mira all'estrazione del solo contenuto informativo intrinseco di un segnale. Ciò si traduce nella possibilità di acquisire informazione direttamente in forma compressa, riducendo la quantità di risorse richieste per tale operazione. In questa tesi è sviluppata un'architettura hardware per l'acquisizione di segnali analogici basata sul compressed sensing, specializzata al campionamento con consumo di potenza ridotto di segnali biomedicali a basse frequenze. Lo studio è svolto a livello di sistema mediante l'integrazione della modulazione richiesta dal compressed sensing in un convertitore analogico-digitale ad approssimazioni successive, modificandone la logica di controllo. Le prestazioni risultanti sono misurate tramite simulazioni numeriche e circuitali. Queste confermano la possibilità di ridurre la complessità hardware del sistema di acquisizione rispetto allo stato dell'arte, senza alterarne le prestazioni.