428 resultados para Profili sismici, corpi sedimentari sepolti, erosione, dinamica costiera.
Resumo:
Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.
Resumo:
Lo scopo di questo studio è la comprensione della dinamica dello strato limite urbano per città dell’Emilia Romagna tramite simulazioni numeriche. In particolare, l’attenzione è posta sull’ effetto isola di calore, ovvero sulla differenza di temperatura dell’aria in prossimità del suolo fra zone rurali e urbane dovuta all’urbanizzazione. Le simulazioni sono state effettuate con il modello alla mesoscala "Weather Research and Forecasting" (WRF), accoppiato con le parametrizzazioni urbane "Building Effect Parametrization" (BEP) e "Building Energy Model" (BEM), che agiscono a vari livelli verticali urbani. Il periodo di studio riguarda sei giorni caldi e senza copertura nuvolosa durante un periodo di heat wave dell’anno 2015. La copertura urbana è stata definita con il "World Urban Databes and Access Portal Tools" (WUDAPT), un metodo che permette di classificare le aree urbane in dieci "urban climate zones" (UCZ), attraverso l’uso combinato di immagini satellitari e "training areas" manualmente definite con il software Google Earth. Sono state svolte diverse simulazioni a domini innestati, con risoluzione per il dominio più piccolo di 500 m, centrato sulla città di Bologna. Le differenze fra le simulazioni riguardano la presenza o l’assenza delle strutture urbane, il metodo di innesto e tipo di vegetazione rurale. Inoltre, è stato valutato l’effetto dovuto alla presenza di pannelli fotovoltaici sopra i tetti di ogni edificio e le variazioni che i pannelli esercitano sullo strato limite urbano. Per verificare la bontà del modello, i dati provenienti dalle simulazioni sono stati confrontati con misure provenienti da 41 stazioni all’interno dell’area di studio. Le variabili confrontate sono: temperatura, umidità relativa, velocità e direzione del vento. Le simulazioni sono in accordo con i dati osservativi e riescono a riprodurre l’effetto isola di calore: la differenza di temperatura fra città e zone rurali circostanti è nulla durante il giorno; al contrario, durante la notte l’isola di calore è presente, e in media raggiunge il massimo valore di 4°C alle 1:00. La presenza dei pannelli fotovoltaici abbassa la temperatura a 2 metri dell’aria al massimo di 0.8°C durante la notte, e l’altezza dello strato limite urbano dell’ordine 200mrispetto al caso senza pannelli. I risultati mostrano come l’uso di pannelli fotovoltaici all’interno del contesto urbano ha molteplici benefici: infatti, i pannelli fotovoltaici riescono a ridurre la temperatura durante un periodo di heat wave, e allo stesso tempo possono parzialmente sopperire all’alto consumo energetico, con una conseguente riduzione del consumo di combustibili fossili.
Resumo:
In questo lavoro di tesi verrà affrontato uno studio sugli ammassi di galassie che costituiscono le strutture virializzate più grandi dell’Universo. L’analisi delle emissioni provenienti dall’ICM (Intracluster Medium) consente di ottenere informazioni su alcuni dei processi che caratterizzano la dinamica degli ammassi di galassie, come merger e cooling flow, e in particolare di testare le attuali ipotesi sulla formazione ed evoluzione degli ammassi. Le radiazioni provenienti dal gas extragalattico possono essere sia di tipo termico che non termico: le prime causate dal meccanismo di Bremsstrahlung termica e appartenenti alla banda X, le seconde invece dovute prevalentemente dall’emissione di Sincrotrone in banda Radio. Durante lo studio degli ammassi di galassie verranno approfondite le principali radiosorgenti diffuse: Aloni, mini-Aloni e Relitti, focalizzando lo studio su questi ultimi e analizzando un campione di dati ad essi relativi, con lo scopo di trovare un’eventuale correlazione tra alcune delle loro proprietà. La ricerca sugli ammassi di galassie risulta importante in quanto, trattandosi delle più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta un valido strumento per la verifica dell’attuale Modello Cosmologico.
Resumo:
In questo elaborato viene sperimentato un iter processuale che consenta di utilizzare i sensori termici affiancati a fotocamere digitale in ambito fotogrammetrico al fine di ottenere prodotto dal quale sono estrapolabili informazioni geometriche e termiche dell’oggetto di studio. Il rilievo fotogrammetrico è stato svolto mediante l’utilizzo di un drone con equipaggiamento multisensoriale, termico e digitale, su una porzione di territorio soggetto ad anomalie termiche nei pressi di Medolla (MO). Per l’analisi termica e geometrica sono stati posizionati sul campo 5 target termici di cui ne sono state misurate le coordinate per la georeferenziazione delle nuvole dense di punti e la temperatura. In particolare sono state eseguite due riprese aeree dalle quali sono stati estratti i frame necessari per i processi di restituzione fotogrammetrica. Le immagini sono state sottoposte ad una fase di trattamento che ha prodotto immagini rettificate prive di delle distorsioni impresse dall’obbiettivo. Per la creazione degli elaborati vettoriali e raster a colori e termici sono stati impiegati inizialmente software di fotogrammetria digitale in grado di fornire scene tridimensionali georeferenziate dell’oggetto. Sono state sviluppate sia in un ambiente open-source, sia sfruttando programmi commerciali. Le nuvole dense sono state successivamente trattate su una piattaforma gratuita ad interfaccia grafica. In questo modo è stato possibile effettuare dei confronti tra i diversi prodotti e valutare le potenzialità dei software stessi. Viene mostrato come creare un modello tridimensionale, contenente sia informazioni geometriche che informazioni termiche, partendo dalla nuvola termica e da quella a colori. Entrambe georeferenziate utilizzando gli stessi punti fotogrammetrici d’appoggio. Infine i prodotti ottenuti sono stati analizzati in un ambiente GIS realizzando sovrapposizioni grafiche, confronti numerici, interpolazioni, sezioni e profili.
Resumo:
Lo studio del polimorfismo gioca un ruolo fondamentale in diversi ambiti di ricerca, con applicazioni importanti nel campo dei semi conduttori organici e dei farmaci, dovuto al fatto che i diversi polimorfi di una sostanza presentano proprietà chimico-fisiche distinte. Questo lavoro di tesi si è focalizzato sullo studio del polimorfismo del paracetamolo, principio attivo (API) di diversi farmaci molto utilizzati, attraverso l’utilizzo della microscopia Raman. La microscopia Raman è una tecnica efficace per l’indagine del polimorfismo di materiali organici ed inorganici, in quanto permette di monitorare la presenza di diverse fasi solide e le loro trasformazioni su scala micrometrica. Le differenze di struttura cristallina che caratterizzano i polimorfi vengono analizzate attraverso gli spettri Raman nella regione dei modi reticolari (10-150 cm^{-1}), le cui frequenze sondano le interazioni inter-molecolari, molto sensibili anche a lievi differenze di impaccamento molecolare. Con questa tecnica abbiamo caratterizzato le forme I, II, III (quella elusiva) e diverse miscele di fase di paracetamolo su campioni ottenuti con numerose tecniche di crescita dei cristalli. Per questa tesi è stato svolto anche uno studio computazionale, attraverso metodi Density Functional Theory (DFT) per la molecola isolata e metodi di minimizzazione dell’energia e di dinamica reticolare per i sistemi cristallini. Abbiamo inoltre verificato se il modello di potenziale di letteratura scelto (Dreiding [Mayo1990]) fosse adatto per descrivere la molecola di paracetamolo, le strutture dei suoi polimorfi e i relativi spettri vibrazionali.
Resumo:
Studio e progettazione di una nuova ruota per arredi da ufficio dal design innovativo. La ruota si differenzia per essere una tipologia Hub-less (senza mozzo), dotata di un carter che la protegge da polveri e corpi esterni e un sistema di riduzione dell'attrito che aiuta l'utente a muoversi in completa libertà.
Resumo:
Il processo di localizzazione risponde all'esigenza dell'uomo di avere una percezione sempre più dettagliata e precisa del contesto in cui si trova, con l'intento di migliorare e semplificare l'interazione con oggetti e cose ivi presenti. L'idea attuale è quella di progettare sistemi di posizionamento con particolare riguardo agli ambienti indoor, caratterizzati da proprietà e densità di elementi che limitano fortemente le prestazioni dei consolidati sistemi di tracking, particolarmente efficienti in spazi aperti. Consapevole di questa necessità, il seguente elaborato analizza le prestazioni di un sistema di localizzazione sviluppato dall'Università di Bologna funzionante in tecnologia Ultra-Wide Bandwidth (UWB) e installato nei laboratori DEI dell'Alma Mater Studiorum con sede a Cesena. L'obiettivo è quello di caratterizzare l'accuratezza di localizzazione del sistema, suggerendo nuovi approcci operativi e de�finendo il ruolo dei principali parametri che giocano nel meccanismo di stima della posizione, sia in riferimento a scenari marcatamente statici sia in contesti in cui si ha una interazione dinamica degli oggetti con lo spazio circostante. Una caratteristica della tecnologia UWB è, infatti, quella di limitare l'errore di posizionamento nel caso di localizzazione indoor, grazie alle caratteristiche fisiche ed elettriche dei segnali, aprendo nuovi scenari applicativi favorevoli in termini economici, energetici e di minore complessità dei dispositivi impiegati.
Resumo:
Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.
Resumo:
Durante i trattamenti radioterapici dei pazienti oncologici testa-collo, le ghiandole parotidee (PGs) possono essere indebitamente irradiate a seguito di modificazioni volumetriche-spaziali inter/intra-frazione causate da fattori quali il dimagrimento, l’esposizione a radiazioni ionizzanti ed il morphing anatomico degli organi coinvolti nelle aree d’irraggiamento. Il presente lavoro svolto presso la struttura di Fisica Medica e di Radioterapia Oncologica dell’A.O.U di Modena, quale parte del progetto di ricerca del Ministero della Salute (MoH2010, GR-2010-2318757) “ Dose warping methods for IGRT and Adaptive RT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments ”, sviluppa un modello biomeccanico in grado di rappresentare il processo di deformazione delle PGs, considerandone la geometria, le proprietà elastiche e l'evoluzione durante il ciclo terapeutico. Il modello di deformazione d’organo è stato realizzato attraverso l’utilizzo di un software agli elementi finiti (FEM). Molteplici superfici mesh, rappresentanti la geometria e l’evoluzione delle parotidi durante le sedute di trattamento, sono state create a partire dai contorni dell’organo definiti dal medico radioterapista sull’immagine tomografica di pianificazione e generati automaticamente sulle immagini di setup e re-positioning giornaliere mediante algoritmi di registrazione rigida/deformabile. I constraints anatomici e il campo di forze del modello sono stati definiti sulla base di ipotesi semplificative considerando l’alterazione strutturale (perdita di cellule acinari) e le barriere anatomiche dovute a strutture circostanti. L’analisi delle mesh ha consentito di studiare la dinamica della deformazione e di individuare le regioni maggiormente soggette a cambiamento. Le previsioni di morphing prodotte dal modello proposto potrebbero essere integrate in un treatment planning system per metodiche di Adaptive Radiation Therapy.
Resumo:
L’acqua è uno dei principali fattori per la crescita socio-economica e lo sviluppo del continente africano. Il continente africano dispone di ingenti risorse idriche, ma le complessità naturali caratteristiche di alcune regioni del continente e la frequente assenza di una corretta pianificazione della loro gestione ne riduce ad oggi il potenziale in maniera significativa. L’utilizzo delle risorse idriche in Africa è destinato ad incrementare sensibilmente nel corso dei prossimi decenni, come risultato della crescita demografica e dei fabbisogni nell’agricoltura. Le risorse idriche sotterranee giocano un importante ruolo in tale scenario in quanto molti paesi africani caratterizzati da scarsità d’acqua dispongono di sostanziali riserve idriche sotterranee e l’accesso a tali risorse, ancorché limitate, è largamente diffuso nel continente. Si stima che il totale delle risorse idriche sotterranee sia di 0,66 milioni di km cubi. Le risorse sotterranee sono largamente distribuite: i maggiori volumi sono localizzati nei larghi acquiferi sedimentari nelle regioni del nord Africa. Per molti paesi africani pozzi appropriatamente ubicati sono in grado di sostenere le comunità con l’estrazione manuale mediante pompe con una portata di 0,1-0,3 l/s. Grandi impianti di produzione da acquifero (>5 l/s), che siano adatti per lo sviluppo urbano o produzioni agricole intensive, non sono ancora diffusi e sono limitati ad aree particolari. La disponibilità ed accessibilità delle acque sotterranee in gran parte dell’Africa è favorevole ad uno sviluppo rurale piuttosto che urbano. Il maggiore fattore limitante per una gestione sostenibile delle risorse sotterranee è dato dalla necessità di identificare se le acque sotterranee sono rinnovabili (ed in quale misura) o meno, al fine di programmare le corrette politiche gestionali nel tempo.
Resumo:
Nel presente lavoro, ho studiato e trovato le soluzioni esatte di un modello matematico applicato ai recettori cellulari della famiglia delle integrine. Nel modello le integrine sono considerate come un sistema a due livelli, attivo e non attivo. Quando le integrine si trovano nello stato inattivo possono diffondere nella membrana, mentre quando si trovano nello stato attivo risultano cristallizzate nella membrana, incapaci di diffondere. La variazione di concentrazione nella superficie cellulare di una sostanza chiamata attivatore dà luogo all’attivazione delle integrine. Inoltre, questi eterodimeri possono legare una molecola inibitrice con funzioni di controllo e regolazione, che chiameremo v, la quale, legandosi al recettore, fa aumentare la produzione della sostanza attizzatrice, che chiameremo u. In questo modo si innesca un meccanismo di retroazione positiva. L’inibitore v regola il meccanismo di produzione di u, ed assume, pertanto, il ruolo di modulatore. Infatti, grazie a questo sistema di fine regolazione il meccanismo di feedback positivo è in grado di autolimitarsi. Si costruisce poi un modello di equazioni differenziali partendo dalle semplici reazioni chimiche coinvolte. Una volta che il sistema di equazioni è impostato, si possono desumere le soluzioni per le concentrazioni dell’inibitore e dell’attivatore per un caso particolare dei parametri. Infine, si può eseguire un test per vedere cosa predice il modello in termini di integrine. Per farlo, ho utilizzato un’attivazione del tipo funzione gradino e l’ho inserita nel sistema, valutando la dinamica dei recettori. Si ottiene in questo modo un risultato in accordo con le previsioni: le integrine legate si trovano soprattutto ai limiti della zona attivata, mentre le integrine libere vengono a mancare nella zona attivata.
Resumo:
Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.
Resumo:
In questo elaborato viene presentato lo studio fotometrico di quattro ammassi globulari galattici. I target di questa Tesi fanno parte della HST UV Legacy Survey degli ammassi globulari galattici (Piotto et al. 2015). Nell'ambito di questa survey sono stati osservati, in modo omogeneo, 57 ammassi globulari galattici con il telescopio spaziale Hubble e la camera WFC3, in tre bande fotometriche ultraviolette e blu. Un dataset così composto è adatto a numerosi scopi, tra cui lo studio delle popolazioni calde come le BSS e delle popolazioni multiple. Sono stati selezionati quattro ammassi particolarmente popolosi e tra i più densi del campione, allo scopo di mettere a punto indicatori di evoluzione dinamica e comprendere il ruolo di quest'ultima sulle proprietà delle popolazioni multiple presenti nei sistemi selezionati. Lo studio dell'evoluzione dinamica è stato effettuato tramite la distribuzione radiale delle BSS (Blue Straggler Stars), che è stato dimostrato esserne un efficiente indicatore (Ferraro et al. 2012). I risultati ottenuti evidenziano chiaramente che tutti gli ammassi selezionati si trovano in fasi avanzate di evoluzione dinamica, come suggerito dall'alta densità che li caratterizza. Anche lo studio delle proprietà delle popolazioni multiple, ovvero sottopopolazioni con differenti abbondanze chimiche di elementi leggeri, la cui presenza è stata recentemente osservata negli ammassi globulari, è stato effettuato tramite lo studio della loro distribuzione radiale. Tra i quattro casi analizzati, soltanto M 15 ha mostrato una separazione significativa tra le distribuzioni radiali delle due popolazioni.
Resumo:
In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.
Resumo:
Lo scopo di questa tesi triennale è quello di fornire un'introduzione ad alcuni concetti della computazione quantistica e comprenderne i fenomeni fisici che ne stanno alla base, dall'idea astratta di qubit fino ai più recenti studi sui centri NV, passando attraverso appropriati strumenti matematici. Recentemente si è realizzato che l'uso delle proprietà della meccanica quantistica può migliorare drasticamente le velocità di calcolo. È quindi cresciuto l'interesse nel campo dell'informazione quantistica. Tra le principali difficoltà vi è il fenomeno della decoerenza, responsabile della distruzione degli stati di sovrapposizione quanto-meccanici. Studiamo la dinamica dei sistemi quantistici aperti, soffermandoci sugli aspetti della loro evoluzione rilevanti nel passaggio dal mondo quantico al classico. A tal fine, e per una migliore comprensione della decoerenza, ricaviamo l'equazione master cui deve obbedire la matrice di densità nel noto modello di Jaynes-Cummings per l'interazione ambiente-sistema. In particolare, descriviamo come un ristretto set di manipolazioni sul sistema ci permetta di proteggerlo dalla decoerenza e come tale tecnica, detta disaccoppiamento dinamico, si rivela un utile strumento per la realizzazione di gates quantistici nel caso dei qubit implementati sfruttando i cosiddetti centri NV del diamante.