428 resultados para Profili sismici, corpi sedimentari sepolti, erosione, dinamica costiera.
Resumo:
Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.
Resumo:
Dopo una breve introduzione storiografica analizzo alcuni percorsi di studio dedicati alle metodologie di detezione dei pianeti extra-solari ed approfondisco alcuni aspetti teorici legati ai fenomeni di interazione dinamica tra pianeti e stelle nel corso delle loro fasi evolutive.
Resumo:
La presente dissertazione investiga la possibilità di ottimizzare l’uso di energia a bordo di una nave per trasporto di prodotti chimici e petrolchimici. Il software sviluppato per questo studio può essere adattato a qualsiasi tipo di nave. Tale foglio di calcolo fornisce la metodologia per stimare vantaggi e miglioramenti energetici, con accuratezza direttamente proporzionale ai dati disponibili sulla configurazione del sistema energetico e sui dispositivi installati a bordo. Lo studio si basa su differenti fasi che permettono la semplificazione del lavoro; nell’introduzione sono indicati i dati necessari per svolgere un’accurata analisi ed è presentata la metodologia adottata. Inizialmente è fornita una spiegazione sul layout dell’impianto, sulle sue caratteristiche e sui principali dispositivi installati a bordo. Vengono dunque trattati separatamente i principali carichi, meccanico, elettrico e termico. In seguito si procede con una selezione delle principali fasi operative della nave: è seguito tale approccio in modo da comprendere meglio la ripartizione della richiesta di potenza a bordo della nave e il suo sfruttamento. Successivamente è svolto un controllo sul dimensionamento del sistema elettrico: ciò aiuta a comprendere se la potenza stimata dai progettisti sia assimilabile a quella effettivamente richiesta sulla nave. Si ottengono in seguito curve di carico meccanico, elettrico e termico in funzione del tempo per tutte le fasi operative considerate: tramite l’uso del software Visual Basic Application (VBA) vengono creati i profili di carico che possono essere gestiti nella successiva fase di ottimizzazione. L’ottimizzazione rappresenta il cuore di questo studio; i profili di potenza ottenuti dalla precedente fase sono gestiti in modo da conseguire un sistema che sia in grado di fornire potenza alla nave nel miglior modo possibile da un punto di vista energetico. Il sistema energetico della nave è modellato e ottimizzato mantenendo lo status quo dei dispositivi di bordo, per i quali sono considerate le configurazioni di “Load following”, “two shifts” e “minimal”. Una successiva investigazione riguarda l’installazione a bordo di un sistema di accumulo di energia termica, così da migliorare lo sfruttamento dell’energia disponibile. Infine, nella conclusione, sono messi a confronto i reali consumi della nave con i risultati ottenuti con e senza l’introduzione del sistema di accumulo termico. Attraverso la configurazione “minimal” è possibile risparmiare circa l’1,49% dell’energia totale consumata durante un anno di attività; tale risparmio è completamente gratuito poiché può essere raggiunto seguendo alcune semplici regole nella gestione dell’energia a bordo. L’introduzione di un sistema di accumulo termico incrementa il risparmio totale fino al 4,67% con un serbatoio in grado di accumulare 110000 kWh di energia termica; tuttavia, in questo caso, è necessario sostenere il costo di installazione del serbatoio. Vengono quindi dibattuti aspetti economici e ambientali in modo da spiegare e rendere chiari i vantaggi che si possono ottenere con l’applicazione di questo studio, in termini di denaro e riduzione di emissioni in atmosfera.
Resumo:
Il periodo economico attuale è caratterizzato da una crisi che affligge numerose imprese non solo a livello nazionale, ma anche a livello mondiale. Tra le innumerevoli ragioni che hanno portato allo sviluppo di questa situazione troviamo quelle legate al contesto generale e competitivo, e quelle strategiche ed organizzative legate all’errata gestione aziendale. Le aziende devono sapersi rinnovare rimanendo concorrenziali e di alta qualità. È proprio in situazioni come queste che occorre saper considerare tutte le variabili in gioco prima di affrontare nuovi investimenti e, addirittura, i rifornimenti di materiale. La Nuova Bassani s.r.l. è sempre stata un’azienda dinamica e, nei suoi trent’anni di storia, ha saputo interpretare al meglio le esigenze del mercato mantenendosi sana ed affidabile. Adesso è orientata verso il revamping di uno dei suoi magazzini automatici per ovviare i tempi morti tra un’operazione e l’altra, e per velocizzare la preparazione degli ordini, per i clienti che ritirano personalmente il materiale richiesto. Oggi più che mai c’è la necessità non solo di soddisfare le richieste sempre più esigenti, ma anche quella di non tenere a magazzino del materiale che potrebbe risultare invenduto per anni perché “passato di moda”. La Nuova Bassani s.r.l. commercia acciaio ed è facilmente comprensibile quanto sia facile che qualche misura o materiale non venga più richiesto dal mercato perché sostituito da nuove tipologie, magari a lavorabilità migliorata. La tesi di seguito sviluppata ha quindi come scopo quello di: • Analizzare lo storico del venduto per approfondire la conoscenza dei materiali trattati e riscontrare quali sono le punte di diamante su cui puntare maggiormente; • Effettuare un’analisi tecnica per accertare quali materiali tenere in magazzino e in quale quantità, basandosi sui layout delle strutture esistenti; • Studiare il funzionamento del magazzino automatico obsoleto ed eventuali difetti tecnici per determinare soluzioni che lo possano migliorare; • Valutare l’investimento del revamping del magazzino per ragguagliare l’azienda sui tempi di recupero di tale investimento. La tesi sarà divisa in due parti fondamentali che riguardano una l’ottimizzazione delle strutture esistenti, l’altra l’aggiornamento di una delle strutture più importanti.
Resumo:
L'oggetto di questa tesi è la villa i Torrioni situata nel comune di San Prospero in provincia di Modena. Si tratta di una villa a due torri presumibilmente sorta nella prima metà del Cinquecento, in aperta campagna. L'interesse verso il fabbricato nasce dallo stato di danno provocato dagli eventi sismici che hanno coinvolto questi territori tra il maggio e il giugno del 2012, aggravato dalla condizione di abbandono in cui verteva da diversi anni. La tesi si divide in tre parti: conoscenza del manufatto, valutazione del rischio sismico e progetto di restauro.
Resumo:
La tesi è finalizzata ad una preliminare fase di sperimentazione di un algoritmo che, a partire da dati di acustica, sia in grado di classificare le specie di pesce presenti in cale mono e plurispecifiche. I dati sono stati acquisiti nella fascia costiera della Sicilia meridionale, durante alcune campagne di ricerca effettuate tra il 2002 e il 2011, dall’IAMC – CNR di Capo Granitola. Sono stati registrati i valori delle variabili ambientali e biotiche tramite metodologia acustica e della composizione dei banchi di pesci catturati tramite cale sperimentali: acciughe, sardine, suri, altre specie pelagiche e pesci demersali. La metodologia proposta per la classificazione dei segnali acustici nasce dalla fusione di logica fuzzy e teorema di Bayes, per dar luogo ad un approccio modellistico consistente in un compilatore naïve Bayes operante in ambiente fuzzy. Nella fattispecie si è proceduto alla fase di training del classificatore, mediante un learning sample di percentuali delle categorie ittiche sopra menzionate, e ai dati di alcune delle osservazioni acustiche, biotiche e abiotiche, rilevate dall’echosurvey sugli stessi banchi. La validazione del classificatore è stata effettuata sul test set, ossia sui dati che non erano stati scelti per la fase di training. Per ciascuna cala, sono stati infine tracciati dei grafici di dispersione/correlazione dei gruppi ittici e le percentuali simulate. Come misura di corrispondenza dei dati sono stati considerati i valori di regressione R2 tra le percentuali reali e quelle calcolate dal classificatore fuzzy naïve Bayes. Questi, risultando molto alti (0,9134-0,99667), validavano il risultato del classificatore che discriminava con accuratezza le ecotracce provenienti dai banchi. L’applicabilità del classificatore va comunque testata e verificata oltre i limiti imposti da un lavoro di tesi; in particolare la fase di test va riferita a specie diverse, a condizioni ambientali al contorno differenti da quelle riscontrate e all’utilizzo di learning sample meno estesi.
Resumo:
Progetto di tesi sviluppato in collaborazione con l'azienda GIMA TT S.r.l. di Ozzano dell'Emilia (gruppo IMA), focalizzato su un gruppo di una macchina automatica etichettatrice da essa prodotta, con l'obiettivo di ottenerne un incremento di produttività del 50%. Per il raggiungimento dell'obiettivo, ci si è concentrati sulla ricerca di soluzioni tecniche per la modifica e l'ottimizzazione del gruppo di applicazione del sigillo di stato ai pacchetti, al fine di ridurre sensibilmente la coppia massima e RMS rilevate sul motore.
Resumo:
In questa tesi si cercherà di passare in rassegna le caratteristiche fondamentali dei principali tipi galattici. Dopo un breve ex-cursus storico, si passerà al primo capitolo, nel quale si osserverà come le prime catalogazioni si siano basate sulla morfologia di questi oggetti. Si cercherà quindi di mostrare come molte grandezze fisiche siano strettamente legate all’aspetto che questi oggetti celesti mostrano. Nel secondo capitolo verranno trattate le principali caratteristiche fotometriche: si mostreranno isofote di galassie ellittiche, si accennerà al fenomeno dell’isophotal twist, si introdurranno diversi profili di brillanza, sia per galassie ellittiche che per galassie a spirale. Nel terzo ed ultimo capitolo si tratteranno le caratteristiche cinematiche dei due principali tipi galattici. Riusciremo, a questo punto, a trovare una relazione tra l’isophotal twist e le caratteristiche cinematiche delle galassie ellittiche. Dopo aver introdotto il concetto di dispersione di velocità, sarà possibile introdurre brevemente il piano fondamentale, importante relazione tra le caratteristiche principali delle galassie ellittiche. Si discuterà infine della particolare curva di rotazione delle galassie a spirale, la cui velocità si mantiene costante ben oltre i limiti di quanto si possa stimare osservando la materia visibile; questa peculiarità delle galassie a spirale ha portato direttamente all’idea che possa esserci della materia oscura in grado di esercitare una attrazione gravitazionale sulla materia ordinaria.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Nella mia sperimentazione si è determinato le concentrazioni di ammine biogene ed etilcarbammato di vini autoctoni siciliani prodotti a partire da vitigni Catarratto, Grillo ed Insolia provenienti da 4 cantine siciliane e detrrminato il profilo in molecole volatili di questi vini mediante la tecnica GS/MS-SPME e il naso elettronico. Per quanto concerne le ammine biogene, l’ammina rilevata in maggiore quantità è stata la putrescina, mentre la 2-feniletilammina e le poliammine sono state rilevate a bassissime concentrazioni. L’istamina era al di sotto del limite di determinazione (0,1 ppm) nei vini della cantina D e nei vini Grillo e Catarratto della cantina C. La tiramina è stata rilevata solo in 7 dei vini analizzati a concentrazioni mai eccedenti 1,31ppm. I vini della cantina B, pur presentando in 2 campioni delle elevate concentrazioni di putrescina, erano privi di poliammine e tiramina. Per quanto riguarda l’etilcarbammato, esso è risultato sempre al di sotto dei 15ppb, indipendentemente dal vitigno e dalla cantina di produzione, con l’eccezione dei campioni di Catarratto della cantina D. Il vino Grillo proveniente dalla stessa cantina presentava i più bassi valori di etilcarbammato determinato tra i campioni analizzati.Per il profilo in molecole volatili rilevate mediante GC/MS-SPME sono state identificate circa 20 molecole appartenenti a classi chimiche differenti quali esteri, alcoli, acidi ed aldeidi.Al fine di evidenziare meglio le differenze tra i diversi campioni di vino, è stata effettuata un’analisi PCA. La proiezione dei diversi campioni sul piano cartesiano definito dalle componenti 1 e 2 era in grado di spiegare, rispettivamente, il 46,44% e il 17,52% della varianza. I diversi campioni sono stati raggruppati principalmente per cantina e non in rapporto al vitigno. Infatti, sono stati individuati 4 cluster corrispondenti alle 4 cantine di produzione. Dal momento che il profilo sensoriale di un vino è la risultante, oltre che di un complesso equilibrio quali-quantitativo di numerose molecole, anche delle interazioni che si vengono a creare tra le molecole volatili e non in un sistema complesso come il vino, è stata effettuata un’analisi mediante naso elettronico. Come precedentemente, i risultati ottenuti sono stati analizzati mediante l’analisi della componente principale che è stata in grado di spiegare più del 80% della varianza totale. Anche in questo caso, i campioni tendevano a raggrupparsi per cantina e non per vitigno. Dall’analisi critica dei dati si evince come il processo produttivo adottato abbia influito in maniera più significativa rispetto al vitigno sulla differenziazione dei profili in molecole volatili determinati sia mediante gascromatografia che naso elettronico. In conclusione, i risultati della mia sperimentazione hanno evidenziato: marcate differenze in termini di profili in molecole volatili tra i vini analizzati solo in rapporto al processo produttivo adottato dalle cantine, sebbene la zona di produzione della materia prima sia piuttosto ristretta; ottima qualità dei prodotti considerati in termini di molecole potenzialmente tossiche per la salute del consumatore.
Resumo:
Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.
Resumo:
In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.
Resumo:
In questo lavoro si indaga la possibilita' di includere lo stack TCP-IP NetBSD, estratto come libreria dinamica ed eseguito all'interno di un kernel rump, come sottomodulo di rete della System Call Virtual Machine UMView di Virtual Square. Il risultato ottenuto consiste in umnetbsd, il modulo che ne dimostra la fattibilita', e libvdeif, una libreria per connettere kernel rump a switch VDE.