113 resultados para comporta hidromecânica
Resumo:
Abstract La metafora è stata tradizionalmente considerata come uno strumento linguistico dal valore esclusivamente estetico, ma agli inizi degli anni Ottanta questa teoria è stata messa in discussione: la metafora è per noi uno strumento conoscitivo fondamentale: ci consente di organizzare le nostre conoscenze e di crearne di nuove, aiutandoci a categorizzare elementi e concetti astratti o troppo complessi come elementi di cui possiamo fare esperienza quotidianamente e che sono sufficientemente strutturati nel nostro sistema concettuale. Le metafore di questo tipo vengono definite metafore concettuali. La messa in discussione della teoria tradizionale della metafora comporta inevitabilmente anche la messa in discussione del concetto di similarità, visto non più come una causa della metafora, ma come la sua conseguenza, e del meccanismo che ne sta alla base. La teoria cognitiva della metafora, in ricerche successive, è stata confermata attraverso le teoria neurale della metafora: l'insorgere di una metafora comporta la creazione di un legame tra aree diverse del cervello che rappresenta fisiologicamente la metafora.
Resumo:
Le galassie a spirale, come la Via Lattea, sono caratterizzate dalla presenza di gas freddo e formazione stellare e vengono perciò chiamate star-forming. Per creare nuove stelle è necessaria una sufficiente riserva di gas, la cui disponibilità governa l’evoluzione della galassia stessa. Finora, non è stato individuato con certezza un meccanismo che possa alimentare la formazione di nuove stelle nelle galassie star-forming. Una delle possibili sorgenti di tale gas è l’alone galattico caldo (corona galattica) il cui raffreddamento e successivo accrescimento possono essere stimolati dal processo di fontana galattica. L’esplosione di supernovae porta nubi di gas freddo in orbita al di sopra del disco stellare; queste nubi raggiungono altezze dell’ordine del kiloparsec, interagendo con la corona di gas caldo. Il moto delle nubi all’interno di un mezzo meno denso comporta l’instaurarsi dell’instabilità di Kelvin-Helmholtz, che ’strappa’ gas dalle nubi e causa la condensazione di materia coronale. Quest’ultima viene quindi accresciuta e, ricadendo sul disco, trasferisce nuovo materiale alla galassia e ne alimenta la formazione stellare. Lo scopo di questa tesi è derivare un modello analitico di fontana galattica che consenta di ottenere una formulazione analitica per il tempo orbitale, cioè il tempo richiesto alle nubi per ricadere sul disco galattico. Infatti, più u tempo le nubi impiegano per attraversare il materiale coronale caldo e ricadere sul disco, più materiale viene accresciuto durante l’orbita. Conoscendo i tempi orbitali sarebbe possibile calcolare il tasso di accrescimento legato al fenomeno di fontana e studiarne l’andamento con il raggio del disco. Questo modello potrebbe rivelarsi utile per lo studio dell’impatto della fontana nell’evoluzione globale del disco galattico e della chimica dell’intera galassia.
Resumo:
Questo elaborato riguarda il dimensionamento di un motore brushless lineare utilizzato in un piano vibrante per l’alimentazione di fiale, flaconi e carpule in macchine per il packaging farmaceutico: in particolare con questo piano vibrante si alimentano macchine astucciatrici e termoformatrici. Con packaging farmaceutico si intente tutto ciò che comporta il confezionamento di prodotti legati al mercato farmaceutico, ma macchinari simili soddisfano anche il mercato per il confezionamento di prodotti alimentari e cosmetici. Il piano vibrante descritto nella trattazione, svolge sia la funzione di alimentazione del prodotto nella macchina, sia quella di buffer. La tesi è stata svolta all’interno di Marchesini Group S.p.a., gruppo industriale fondato nel 1974 che vanta una posizione di livello mondiale nel settore delle macchine automatiche: in particolare si occupa dell’automazione per packaging nel settore farmaceutico, cosmetico e alimentare. Avendo dovuto fare un intervento di sostituzione di un motore su un gruppo già in funzione, nella riprogettazione dei particolari si è cercato di apportare il minor numero di modifiche possibile, per minimizzare il numero di pezzi da sostituire qualora un motore in funzione si rompa o venga danneggiato. Questo studio mi ha dato la possibilità di approfondire diversi aspetti della progettazione meccanica: in particolare ho avuto la possibilità di utilizzare Creo Parametric, il programma di disegno 3D usato in Marchesini, e quindi approfondire molteplici aspetti e regole del disegno e della messa in tavola. Insieme a questo, oltre a studiare le diverse tipologie di motori lineari ho potuto approfondire i metodi di scelta di un motore lineare, consultando anche i fornitori.
Resumo:
La scelta del mezzo di contrasto in angiografia è rilevante e richiede un’attenta valutazione della qualità diagnostica delle immagini e degli effetti collaterali. Essenziale è analizzare il rischio che comporta l’utilizzo dei vari mezzi di contrasto a base di iodio, come ad esempio la nefropatia. Al contrario l’anidride carbonica, riconosciuta come unico agente di contrasto sicuro, sempre più, viene utilizzata in tutti i vasi del corpo al di sotto del diaframma. L'obiettivo principale di questo lavoro, svolto in collaborazione con l’azienda bolognese Angiodroid srl, è quello di realizzare un dispositivo medico in grado migliorare la qualità delle immagini ottenute con CO2 a livello addominale. Infatti, col recente utilizzo della CO2 anche nel distretto addominale si riduce drasticamente l’utilizzo di grandi quantità di iodio, ma, in molti pazienti, il movimento della aria intestinale che ha coefficiente di assorbimento simile all’anidride carbonica, rende l’immagine inefficiente. Il progetto consiste in una fascia addominale composta da tre camere d’aria gonfiabili manualmente, che comprimendo l’addome con pressioni di 120-180 mmHg, spostano l’aria e riducono il movimento intestinale, e quindi gli artefatti. L’uso di questa semplice fascia, migliorando le immagini dei distretti addominale e viscerale, potrebbe permettere una più rapida affermazione dell’angiografia con CO2 anche in procedure come EVAR e PTA iliache. Per individuare la procedura d’utilizzo più adeguata e migliorare il dispositivo secondo le necessità cliniche, la fascia è stata provata in alcune sale angiografiche dell’Emilia Romagna, Lombardia e Campania.
Resumo:
In questo elaborato è stato discusso il tema della depurazione delle acque reflue, in particolar modo il sistema SBR. L'SBR (Sequencing Batch Reactors) è un sistema di impianti di depurazione composto da una vasca di raccolta del liquame e una o più vasche in parallelo, i reattori, che consistono nel vero e proprio cure dell'impianto. Di fatto le fasi del processo depurativo restano immutate rispetto ad un impianto tradizionale, ma l'SBR introduce come nuovo parametro dimensionale il tempo. infatti, tutti i trattamenti depurativi sono svolti sequenzialmente nel reattore. Un programma gestisce le varie fasi del trattamento esclusivamente sulla base della loro durata (stabilita relativamente alla natura del refluo e quindi ai trattamenti da svolgere in maniera più o meno intensiva). Questa caratteristica rende l'intero impianto molto versatile nel caso di variazioni dei dati in ingresso. Per questo motivo gli impianti SBR sono ottimi per la piccola media impresa, in quanto sono facilmente adattabili alle variazioni stagionali di produzione. Sono inoltre possibili realizzazioni di impianti per il trattamento di ingenti portate, o elevate concentrazioni, ponendo più reattori in parallelo alimentati dalle stessa vasca di accumulo. In questo modo è possibile svolgere un maggiore numero di cicli depurativi al giorno e quindi rispettare i valori normativi in uscita dell'impianto. In conclusione questa tipologia d'impianto presenta notevoli vantaggi fra i quali anche quello di avere bassi costi operativi. La motivazione di ciò sta nel fatto che l'impianto lavora solo se ha effettivamente una portata, per cui se non vi è presenza di refluo il reattore non lavora e quindi non comporta costi.
Resumo:
Il CTBT (Trattato di Bando Complessivo dei Test Nucleari) è un accordo multilaterale tra Stati, stilato nel 1996, che impone il divieto assoluto di effettuare esplosioni di tipo nucleare, sia per scopi civili che per scopi militari, in qualsiasi ambiente. Esso prevede l'istituzione di un sistema di verifica e monitoraggio che si prefigge lo scopo di rilevare tempestivamente se in una qualsiasi parte del mondo sia stato clandestinamente effettuato un test. Tra le varie tecniche utilizzate, la più decisiva per l'identificazione di un'esplosione è data dal monitoraggio di radionuclidi, che permette di fare ipotesi su di un eventuale evento illecito di origine nucleare se in una certa regione si rileva la presenza nell'ambiente di particolari isotopi radioattivi in quantità anomale. Attualmente, il metodo più efficace consiste nell'eventuale identificazione della presenza di quattro radioisotopi di gas nobili, ovvero xeno-131m, xeno-133, xeno-133m e xeno-135. Di recente, però, gli esperti hanno cominciato a valutare l'ipotesi di effettuare misurazioni anche di un altro radioisotopo di gas nobili, ovvero l'argon-37. L'efficacia nell'utilizzo di quest'ultimo è superiore a quella che caratterizza il monitoraggio dello xeno, anche se il motivo per cui il metodo di rilevazione dell'argon non è ancora sfruttato è dato dall'estrema difficoltà che la sua misurazione comporta. Obiettivo di questo lavoro è proprio quello di analizzare le potenzialità dell'utilizzo di tale radioisotopo dell'argon per gli scopi di verifica del CTBT, di descrivere l'attuale stato dell'arte delle tecnologie disponibili per la sua misurazione e di valutare quantitativamente il fondo di argon-37 naturalmente presente, in modo da stabilire i criteri con cui si possa dire se le quantità rilevate siano compatibili con la normale presenza di tale radioisotopo oppure se siano senza dubbio dovute a un'avvenuta esplosione.
La passivhaus in clima mediterraneo: caratteristiche costruttive e simulazioni energetiche dinamiche
Resumo:
Questa Tesi approfondisce lo standard Passivhaus, un metodo sviluppato originariamente in Germania nella seconda metà degli anni ’80 ed ora diffuso in tutta Europa, con l’obiettivo di favorire la realizzazione di edifici in grado di fornire ottimi livelli di comfort con consumi energetici pari quasi a zero. Questo standard abitativo mi ha appassionato a tal punto che ho deciso di farne oggetto della mia tesi di laurea. Da diversi anni stiamo assistendo ad una serie di mutamenti climatici che stanno modificando la vita sul nostro pianeta e portano a considerare tutta una serie di cambiamento sul nostro modo di vivere. La casa passiva, a mio parere, è un concetto valido e utile a contenere questa situazione. In altre zone d’Europa, con climi invernali rigidi ma condizioni estive meno gravose delle nostre, è uno standard piuttosto diffuso e qui cercherò di formulare un’analisi quanto più vicina alla realtà riguardo all’adattabilità della Passivhaus al nostro clima. Lo scopo è quello di capire come si comporta questo tipo di edifici in ambienti climatici diversi da quelli per cui lo standard è stato progettato. Per verificarne l’efficacia, verrà studiato nel dettaglio il primo edificio residenziale multipiano recentemente costruito a Cesena e certificato Passivhaus. Successivamente, sarà simulata la realizzazione dello stesso edificio in dieci diverse località italiane, con differenti condizioni climatiche, e ne saranno verificate le prestazioni energetiche tramite un software di modellazione in regime dinamico. Se risulterà necessario a seguito delle verifiche, saranno progettate le modifiche alle soluzioni costruttive che permettano di raggiungere i livelli previsti dallo standard Passivhaus in tutte le località. I risultati della simulazione saranno infine confrontati e commentati nella parte conclusiva della Tesi.
Resumo:
I veicoli ad alte prestazioni sono soggetti ad elevati carichi per piccoli intervalli di tempo. Questo comporta diverse criticità sulle componenti che costituiscono la vettura: una di queste è la pinza freno. Al fine di renderla performante è necessario il possesso di due proprietà. In primo luogo, la pinza freno deve essere il più leggera possibile poiché essa conferisce un'inerzia nella risposta della sospensione del veicolo, procurando il distacco dello pneumatico dal suolo e causando perdita di aderenza. In secondo luogo, è necessario contenere le deformazioni della pinza freno garantendo un determinato feeling per il pilota. Il compito del progettista è ottimizzare questi due parametri che hanno effetti antitetici. Questa difficoltà porta il progettista a creare design molto complessi per raggiungere l’ottimale e non sempre le geometrie ottenute sono realizzabili con tecnologie convenzionali. Questo studio riguarda il miglioramento prestazionale di una pinza freno costruita con una lega di alluminio 7075-T6 e lavorato dal pieno. Gli obbiettivi sono quello di produrre il nuovo corpo in titanio TI6Al4V, dal momento che le temperature di esercizio portano a grandi decadute di caratteristiche meccaniche dell’alluminio, contenere il più possibile la massa a fronte dell’aumento di densità di materiale e ovviamente limitare le deformazioni. Al fine di ottenere gli obbiettivi prefissati sono utilizzati metodi agli elementi finiti in diverse fasi della progettazione: per acquisire una geometria di partenza (ottimizzazione topologica) e per la validazione delle geometrie ottenute. Le geometrie ricavate tramite l’ottimizzazione topologica devono essere ricostruite tramite software CAD affinché possano essere ingegnerizzate. Durante la modellazione è necessario valutare quale tecnologia è più vantaggiosa per produrre il componente. In questo caso studio si utilizza un processo di addizione di materiale, più specificatamente una tecnica Selective Laser Melting (SLM).
Resumo:
La tesi si propone l'obiettivo di esaminare le caratteristiche della lingua dell'aviazione, il cosiddetto Aviation English (AE), rivolgendo un'attenzione particolare alle dinamiche delle interazioni verbali che avvengono tra piloti e controllori del traffico aereo. A partire da un breve excursus sui diversi tipi di linguaggi, da quelli specialistici alle lingue controllate, si cercherà di fornire una chiara definizione dell'AE, delineando gli aspetti che lo rendono una vera e propria lingua e non una semplice varietà di inglese. La tesi passerà in rassegna tutte le convenzioni e le regole che compongono questa lingua e che rendono la comunicazione in volo efficace a livello internazionale. Si vedrà anche come la comunicazione in aviazione sia suscettibile a molti fattori linguistici (e non), il che comporta per gli operatori del settore, l'obbligo di conoscerla a fondo, più della loro stessa lingua madre. In conclusione, si eseguirà un'analisi conversazionale di una comunicazione terra-bordo-terra realmente avvenuta in un'emergenza. Più precisamente, si tratta dell'estratto del volo US Airways 1549, diventato famoso come "il miracolo dell'Hudson". Questo permetterà di mettere in risalto le regole dell'AE, applicate in un caso concreto, quanto singolare, e notare come queste siano efficaci nel gestire, a livello comunicativo e operativo, gli imprevisti.
Resumo:
Lo studio presentato in questa tesi vuole riportare la ricerca e l’analisi di una nuova esperienza di utilizzo di una stampella, spinto dalla richiesta di migliorare la performance e l’interfaccia dello strumento con un paziente con rilevanti difficoltà motorie. Analizzando lo stato dell’arte e la ricerca in ambito ortopedico, la stampella risulta essere lo strumento più comunemente utilizzato in caso di riabilitazione o difficoltà motorie, ma, allo stesso tempo, comporta rischi e ulteriori danni al paziente, nel caso vi sia un uso scorretto dello strumento. Lo scopo principale del progetto è fornire un supporto, sia al paziente, sia alla terapia, tramite l’ottimizzazione e il miglioramento di alcuni elementi costituenti di una stampella e l’implementazione di un nuovo servizio. Durante lo studio sono stati sfruttati i metodi dell’ingegneria industriale, utili per le fasi di sviluppo del progetto, ma si è cercato anche di dare importanza alla user experience, riportando considerazioni e opinioni di diversi utilizzatori della stampella. Si spera che il risultato sia uno strumento funzionale, utile e soprattutto che vada incontro alle esigenze non solo dell’utente, ma anche delle figure che lo assistono, come il medico ortopedico o il fisioterapista.
Resumo:
L’utilizzo di biomasse come fonte di chemicals nell’industria chimica mira a rendere più sostenibili i processi industriali e i materiali prodotti. In particolare, l’acido crotonico (AC), impiegato come building block nella produzione di vernici e rivestimenti, è prodotto tradizionalmente da fonti fossili. La domanda globale ammonta a circa 1000 tonnellate ed è in continuo aumento, rendendo prioritaria l’individuazione di una sintesi alternativa e sostenibile. In questo studio, l’analisi del ciclo di vita (life cycle assessment, LCA) è stata applicata per stimare la carbon footprint e la domanda cumulativa di energia relative ad una sintesi innovativa dell’AC, basata sulla conversione termica di un precursore derivato da biomasse di scarto. In particolare, il processo prevede l’applicazione di un trattamento termochimico a poli-idrossi-butirrati (PHB) prodotti da colture batteriche miste a valle del processo B-PLAS. Sono stati modellati due scenari comparativi con l’obiettivo di (i) valutare la sostenibilità ambientale della sintesi alternativa nella tecnologia B-PLAS, considerando una condizione “base” di processo (con un contenuto di PHB pari al 30% nello slurry in ingresso al processo) e una “ottimale” (con un contenuto di PHB pari al 60%); (ii) confrontare gli impatti ambientali del processo di sintesi alternativo per entrambi gli scenari con quelli di sintesi dell’AC da fonti fossili. I risultati dell’LCA mostrano che nel processo B-PLAS, giunti alla produzione dello slurry (fango) arricchito in PHB, si possono avere due strade equivalenti estraendo i PHB o convertendoli in AC con una lieve preferenza per il processo estrattivo (0.71MJ/kgslurry vs 1.11MJ/kgslurry) nella condizione di base e (0.69MJ/kgslurry vs 1.17MJ/kgslurry) in quella ottimale. Estendendo la comparazione alla produzione dell’AC da fonti fossili, quello bioderivato comporta un impatto ambientale ampiamente inferiore, stimato in 159.6 MJ/kgAC e 204.6 MJ/kgAC per gli scenari “base” e “ottimale”.
Resumo:
La flavescenza dorata è una malattia di interesse globale che causa ogni anno ingenti danni alle coltivazioni e di conseguenza comporta sostanziali perdite economiche in viticoltura. Il primo obiettivo che questo elaborato si è posto è stato fornire uno strumento utile a identificare la malattia anche prima che essa manifesti i suoi sintomi; in quest’ottica la spettroscopia si è rivelata particolarmente promettente. In secondo luogo si è valutata se la distanza dal bosco potesse essere un fattore di incidenza della flavescenza dorata. Per quanto riguarda il primo aspetto, lo scopo è stato raggiunto con l’identificazione di diversi composti biochimici che potrebbero essere sfruttati come indicatori per l’identificazione del fitoplasma; anche la presenza di un’area boschiva potrebbe incidere nella diffusione della flavescenza dorata. È bene sottolineare che l’elaborato è stato svolto con una prospettiva agroecologica, cercando valide alternative ai metodi di lotta tradizionali che prevedono l’uso di composti chimici e lo sfalcio del cotico erboso, utile a garantire la sopravvivenza e la funzionalità di un ambiente agroecologico. Le conclusioni tratte stimolano indagini future, per approfondire le pionieristiche tematiche investigate.
Resumo:
Il miglioramento dell'assistenza e dei risultati dei pazienti si basano attualmente sullo sviluppo e sulla convalida di nuovi farmaci e tecnologie, soprattutto in campi in rapida evoluzione come la Cardiologia Interventistica. Tuttavia, al giorno d’oggi ancora poca attenzione è rivolta ai professionisti che effettuano tali operazioni, il cui sforzo cognitivo-motorio è essenziale per la riuscita degli interventi. L’ottimizzazione delle prestazioni e dell'organizzazione del lavoro è essenziale in quanto influisce sul carico di lavoro mentale dell'operatore e può determinare l'efficacia dell'intervento e l'impatto sulla prognosi dei pazienti. È stato ampiamente dimostrato che diverse funzioni cognitive, tra cui l'affaticamento mentale comporta alcuni cambiamenti nei segnali elettroencefalografici. Vi sono diversi marcatori dei segnali EEG ciascuno con una determinata ampiezza, frequenza e fase che permettono di comprendere le attività cerebrali. Per questo studio è stato utilizzato un modello di analisi spettrale elettroencefalografica chiamato Alpha Prevalence (AP), che utilizza le tre onde alpha, beta e theta, per mettere in correlazione i processi cognitivi da un lato e le oscillazioni EEG dall’altro. Questo elaborato, condotto insieme all’azienda Vibre, prende in esame il cambiamento dell’AP, all’interno di una popolazione di cardiologi interventisti che effettuano interventi in cath-lab presso l’ospedale universitario di Ferrara, per valutare la condizione di affaticamento mentale o di eccessiva sonnolenza. L’esperimento prevede la registrazione del segnale EEG nei partecipanti volontari durante gli interventi e durante le pause nel corso dell’intero turno di lavoro. Lo scopo sarà quello di rilevare i cambiamenti nella metrica dell’alpha prevalence al variare del carico attentivo: ossia al variare delle risorse attentive richieste dal compito in relazione all’aumentare del tempo.
Resumo:
Il seguente lavoro ha l’obiettivo di mettere in evidenza le varie metodiche che vengono utilizzate per la diagnosi di tutte le malattie che riguardano l’apparato digerente, esaminando le varie tecnologie, la loro manutenzione e il ruolo che l’ingegnere clinico assume in questa tecnologia. In particolare, ho approfondito la video capsula endoscopica, l’ultima tecnologia all’avanguardia verso la quale si stanno concentrando gli studi. La tematica affrontata riguarda la strumentazione utilizzata nell’Endoscopia Digestiva, che utilizza attualmente endoscopi flessibili per visualizzare il sistema digerente. Gli endoscopi fanno parte dell’area diagnostica per bioimmagini, utilizzano quindi apparecchiature biomediche per catturare immagini delle strutture biologiche, potendo così valutare le diverse patologie o le condizioni degli organi stessi. Grazie agli studi e al progredire della scienza, è oggi possibile catturare immagini dinamiche e radiologiche, non più solo statiche e unicamente anatomiche. Alcune di queste tecnologie, così come gli endoscopi e gli ecografi, oltre alla capacità diagnostica, hanno sviluppato la possibilità di intervenire direttamente durante l’esame endoscopico, aiutando la terapia di alcune patologie. Per quanto riguarda la video capsula endoscopica, la possibilità di eseguire biopsie si sta sviluppando, e sono già presenti modelli concreti per il raggiungimento di questo obiettivo. Col passare del tempo si è ridotta notevolmente anche l’invasività dell’esame, che ha portato ad un aumento del numero di prestazioni, dotazione di endoscopi e di tutte le altre attrezzature ad esso associate. Lo sviluppo di queste tecnologie ha portato benefici anche alla qualità della prevenzione e del trattamento di queste patologie. Attualmente queste tecnologie sono indispensabili all’interno di un complesso ospedaliero, ed è per questo che è diventata necessaria anche una loro manutenzione continua, che comporta fattori organizzativi e gestionali.
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.