149 resultados para Ultrasuoni giunti precarico
Resumo:
L'esame clinico della palpazione manuale dei tessuti è ancora oggi l'indagine preliminare più diffusa per l'identificazione e la diagnosi delle lesioni superficiali. L'esame è infatti in grado di fornire al medico esaminatore una valutazione qualitativa circa le proprietà meccaniche dei tessuti indagati, in particolare per quanto concerne la rigidità. I limiti fondamentali e intrinseci della palpazione sono l'impossibilità di raggiungere i tessuti in profondità, limitando quindi l'analisi agli elementi anatomici superficiali, e la grandezza delle lesioni rilevabili. L'elastografia si inserisce in tale contesto come strumento diagnostico in grado di valutare le proprietà meccaniche dei tessuti in funzione della profondità, con una risoluzione spaziale non ottenibile attraverso la semplice palpazione. L'elastosonografia rappresenta la metodologia elastografica attualmente più diffusa, caratterizzata da numerose tecnologie specializzate nell'indagine di diversi elementi anatomici. Il vantaggio fondamentale dell'elastosonografia rispetto ad altre metodiche come l'elastografia a risonanza magnetica o l'elastografia tattile risiede nell'integrazione efficace con la tradizionale indagine ecografica. L'elaborato si pone l'obiettivo di descrivere e valutare le varianti implementative dell'elastosonografia e la loro efficacia come strumento diagnostico. La prima parte (parte I) riassume i concetti fondamentali alla base dell'indagine ecografica, fornendo le nozioni teoriche ed un contesto adeguato alla comprensione dell'elastosonografia. Entrambe le indagini sono infatti basate principalmente sull'emissione e ricezione di ultrasuoni. La parte centrale (parte II) dell'elaborato analizza le principali tecniche elastosonografiche attualmente esistenti. I metodi descritti, a prescindere dal principio di funzionamento specifico, sono accomunati dalla medesima dinamica fondamentale che comprende una eccitazione meccanica del tessuto e l'osservazione della relativa risposta, per fornire una misura qualitativa o quantitativa della rigidità del tessuto in esame. L'ultima parte (parte III) analizza alcuni casi applicativi di particolare rilevanza, soffermandosi sulla valutazione dal punto di vista statistico del contributo fornito dalla specifica tecnica elastosonografica rispetto alle indagini tradizionali.
Resumo:
Questo elaborato di tesi si propone di indicare due esempi di strutture in grado di misurare con una certa precisione i coefficienti di attrito che agiscono su un giunto filettato distinguendoli tra coefficiente di attrito nel sottotesta della vite e coefficiente di attrito sul filetto. I macchinari ideati saranno anche in grado di misurare la forza di precarico applicata e permetteranno l’analisi dei segni d’usura attorno ai fori che ospiteranno le viti.
Resumo:
In questo elaborato viene presentato lo studio ed ottimizzazione della geometria del serpentino di uno scambiatore di calore per la produzione di acqua sanitaria di tipo Puffer. L’analisi volta all’ottimizzazione del serpentino è stata eseguita con l’obiettivo di soddisfare i vincoli di progetto dello scambiatore, ovvero la portata elaborata e la temperatura di uscita dell’acqua sanitaria dallo scambiatore, ma cercando di ridurre la superficie del serpentino e quindi il costo dello scambiatore stesso, in particolare agendo su parametri geometrici quali il passo dell’elica H, il diametro dell’avvolgimento Db ed il diametro del tubo d. A tal fine è stato sviluppato un modello del processo di scambio termico all’interno dello scambiatore Puffer basato sulle equazioni di bilancio di energia e raffinato attraverso correlazioni teorico/sperimentali reperite in letteratura. In una prima fase l’ottimizzazione è stata svolta con l’ulteriore vincolo progettuale d=41mm e Db=510mm, al fine di garantire maggiore flessibilità nell’utilizzo del serpentino per altre tipologie di scambiatori. In questo caso, si è giunti ad un risparmio del 14% sull’area di scambio termico del serpentino rispetto al modello tuttora in produzione, quantificabile in una riduzione dei costi del 19% sul costo totale del Puffer. In una seconda fase si è proceduto ad una ottimizzazione libera dai vincoli d e Db, con l’obiettivo di valutare la massima riduzione di area di scambio termico del serpentino, stimata in circa il 23% nel caso in cui sia possibile in futuro valutare modifiche sostanziali alla geometria dello scambiatore. Lo studio completato dall’analisi dell’isolamento del corpo dello scambiatore, finalizzata a ridurre le dispersioni verso l’ambiente esterno. In particolare è stato valutato l’utilizzo di Isolmix, in alternativa all’esistente isolamento in pannelli di poliuretano, dimostrando come sia possibile ottenere una ulteriore riduzione del materiale impiegato e quindi dei costi di realizzazione dello scambiatore.
Resumo:
Nella prima parte di questo lavoro di tesi è stata effettuata una ricerca sullo stato dell’arte attuale delle macchine per prove a fatica con principio di risonanza. Pertanto viene riportata una descrizione delle necessità che portarono all’interesse verso questa metodologia di prove a fatica oltre che una descrizione delle macchine ad ultrasuoni di concezione moderna, delle loro caratteristiche e dei loro componenti tipici. Successivamente si sono riportati i dibattiti principali riguardanti la validità delle prove ottenute con questa tipologia di macchine. Si è, di seguito, utilizzata la teoria classica delle onde elastiche per illustrare il principio di funzionamento della macchina. Si sono ottenute le soluzioni esatte dei campi di spostamento, deformazione e sforzo nel caso di provini o sonotrodi a sezione costante confrontando successivamente i risultati così ottenuti con soluzione in ambito FEM per dimostrare la validità degli stessi. Lo stesso tipo di analisi è stata effettuata anche per il provino tipico di prove a fatica, ossia il provino circolare, dove la soluzione esatta è stata ottenuta per similitudine nel provino, catenoidale. Sono riportati un breve riassunto dei nuovi fenomeni di fatica che si sono riscontrati grazie alle possibilità di effettuare test in regione VHCF, laddove non era possibile con le macchine convenzionali, e le conclusioni del presente lavoro di tesi.
Resumo:
La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.
Resumo:
Lo studio delle Zone Franche Urbane all’interno del Diritto tributario europeo non ha potuto prescindere da una introduttiva delimitazione del lavoro, capace di distinguere le diverse tipologie di zone franche esistenti nei Paesi intra/extra Ue. Attraversando i casi-studio di Madeira, delle Azzorre, fino alla istituenda Zona Franca di Bruxelles, Zone d’Economie Urbaine stimulée (ZEUS), si è giunti alla constatazione dell’assenza di una definizione di Zona Franca Urbana: analizzando le esperienze normative vissute in Francia e in Italia, si è potuto tratteggiare il profilo territoriale, soggettivo e oggettivo del sistema agevolativo rivolto al recupero delle aree urbane degradate. La funzione strumentale della fiscalità, esplicitata per mezzo delle ZFU, ha condotto ad una verifica di diritto interno per controllare la legittimità delle scelte nazionali in ragione dei principi costituzionali nazionali, come anche una di diritto europeo per evitare che le scelte nazionali, anche se legittime sul piano interno, possano per gli stessi effetti incentivanti alle attività d'impresa presentarsi come una forma territoriale di aiuti di Stato fiscali. Evidenziando il rapporto tra le ZFU e il Mercato europeo si è voluto, da un lato, effettuare una ricostruzione sistemica necessaria per un’interpretazione delle ZFU che metta in luce le componenti di tale strumento orientate al perseguimento di un interesse socioeconomico, che in prima battuta generi una contraddizione, una deroga ai principi costituzionali e comunitari, per poi “sciogliersi” in una coerente applicazione degli stessi; dall’altro, tentare di elevare le ZFU a misura sistemica dell’Ordinamento europeo. Si è svolto, infine, un ragionamento in termini di federalismo fiscale con riferimento alle ZFU, trovando una adeguata collocazione nel percorso di devoluzione intrapreso dal legislatore nazionale, avendo quali interlocutori privilegiati le Regioni a Statuto Speciale.
Resumo:
Oggetto della tesi e' l'approfondimento su tecniche e metodiche di preservazione del polmone isolato per lo studio ecografico. E' discussa l'appropriatezza sull'uso degli ultrasuoni in corso di chirurgia mini invasiva polmonare, obiettivo di una ricerca sperimentale. Il razionale dello studio si fonda sull'indicazione all'exeresi chirurgica di noduli polmonari di diametro inferiore al centometro, ovvero di diametro superiore ma localizzati in aree centrali del polmone. Queste lesioni sono sempre piu' frequentente diagnosticate per mezzo di avanzate tecniche di imaging. L'atto chirurgico ha scopo terapeutico quando sia stata posta la diagnosi di neoplasia maligna, diagnostico-terapeutico quando non sia ancora ottenuta la tipizzazione istologica della lesione. La tecnica toracoscopica offre numerosi vantaggi rispetto alle tecniche chirurgiche tradizionali ma presenta il grave limite di non permettere la palpazione diretta del tessuto polmonare e la localizzazione della formazione tumorale quando essa non sia visibile macroscopicamente. Gli ultrasuoni sono stati utilizzati con successo per indirizzare la localizzazione del nodulo polmonare. Scopo dello studio sperimentale e' quello di confrontare tecniche diverse di preservazione del polmone isolato in un modello animale, comparando catatteristiche e prestazioni di sonde ecografiche differenti per tipologia. Del tutto recentemente, in ambito trapiantologico, sono state proposte tecniche di preservazione organica utili ai fini di uno studio anatomico sperimentale particolareggiato (EVLP) e moderna e' da considerarsi la concezione di mezzi tecnici specifici per la localizzazione di bersagli intrapolmonari. La tecnica clinica applicata allo studio del particolare ecografico, nel modello animale, ha reso comprensibile e meglio definito il ruolo delle sonde ecografiche nell'individuazione di forme tumorali suscettibili di exeresi definitiva.
Resumo:
Studio e ottimizzazione di componenti di un motore avanzato, bicilindico twinair avio.
Resumo:
Scopo della tesi è illustrare l’evoluzione delle tecniche ecocardiografiche relativamente alla diagnosi precoce della cardiotossicità. L’elaborato espone le modalità di imaging ecocardiografico che vengono utilizzate per diagnosticare la cardiotossicità a partire dall’ecocardiografia bidimensionale, fino alle tecniche tridimensionali con acquisizione in tempo reale, attualmente in evoluzione. Si analizzano le varie tecniche diagnostiche rese disponibili dall’esame ecocardiografico: ecocardiografia a contrasto, doppler ad onda continua e pulsata e color doppler, e i metodi e le stime attraverso i quali è possibile quantificare i volumi cardiaci, indici della funzionalità del miocardio. La frazione di eiezione è infatti stata, fino ad ora, il parametro di riferimento per la verifica di lesioni cardiache riportate a seguito di terapia antitumorale. La cardiotossicità viene riscontrata per riduzioni dei valori della frazione di eiezione da ≥5% a <55% con sintomi di scompenso cardiaco e riduzione asintomatica da ≥10% al 55%. Tuttavia, l’osservazione di questo parametro, permette di quantificare il danno riportato quando ormai ha avuto ripercussioni funzionali. In campo clinico, si sta imponendo, al giorno d’oggi, l’analisi delle deformazioni cardiache per una valutazione precoce dell’insorgenza della cardiotossicità. Lo studio delle deformazioni cardiache viene effettuato tramite una nuova tecnica di imaging: l’ecocardiografia speckle tracking (STE), che consente un’analisi quantitativa e oggettiva, poiché indipendente dall’angolo di insonazione, della funzionalità miocardica sia globale sia locale, analizzando le dislocazioni spaziali degli speckles, punti generati dall’interazione tra ultrasuoni e fibre miocardiche. I parametri principali estrapolati dall’indagine sono: deformazione longitudinale, deformazione radiale e deformazione circonferenziale che descrivono la meccanica del muscolo cardiaco derivante dall’anatomia delle fibre miocardiche. La STE sviluppata inizialmente in 2D, è disponibile ora anche in 3D, permettendo la valutazione del vettore delle dislocazioni lungo le tre dimensioni e non più limitatamente ad un piano. Un confronto tra le due mostra come nella STE bidimensionale venga evidenziata una grande variabilità nella misura delle dislocazioni mentre la 3D mostra un pattern più uniforme, coerente con la normale motilità delle pareti cardiache. La valutazione della deformazione longitudinale globale (GLS), compiuta tramite ecocardiografia speckle tracking, viene riconosciuta come indice quantitativo della funzione del ventricolo sinistro le cui riduzioni sono predittive di cardiotossicità. Queste riduzioni vengono riscontrate anche per valori di frazioni di eiezione normale: ne risulta che costituiscono un più efficace e sensibile indicatore di cardiotossicità e possono essere utilizzate per la sua diagnosi precoce.
Resumo:
Questo elaborato ha come scopo quello di analizzare ed esaminare una patologia oggetto di attiva ricerca scientifica, la sindrome dell’arto fantasma o phantom limb pain: tracciando la storia delle terapie più utilizzate per la sua attenuazione, si è giunti ad analizzarne lo stato dell’arte. Consapevoli che la sindrome dell’arto fantasma costituisce, oltre che un disturbo per chi la prova, uno strumento assai utile per l’analisi delle attività nervose del segmento corporeo superstite (moncone), si è svolta un’attività al centro Inail di Vigorso di Budrio finalizzata a rilevare segnali elettrici provenienti dai monconi superiori dei pazienti che hanno subito un’amputazione. Avendo preliminarmente trattato l’argomento “Machine learning” per raggiungere una maggiore consapevolezza delle potenzialità dell’apprendimento automatico, si sono analizzate la attività neuronali dei pazienti mentre questi muovevano il loro arto fantasma per riuscire a settare nuove tipologie di protesi mobili in base ai segnali ricevuti dal moncone.
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.
Resumo:
La tesi dottorale si incentra sull'analisi del principio di precauzione e sulla sua portata applicativa in quella che possiamo definire “la vita del medicinale”. La disamina prende le sue mosse dalla teoria generale relativa al principio di precauzione e ne indaga, in primis, le sue origini e la sua evoluzione e successivamente ne considera la trasposizione giuridica nel settore ambientale e della salute umana. Si può sintetizzare, in via generale, come il ricorso al principio di precauzione avvenga quando il rischio connesso ad un evento non è un rischio determinato, ma è un rischio potenziale, cioè non supportato da dati scientifici che dimostrino in modo chiaro la connessione esistente tra avvenimento e danni (causa – effetto). In particolare, i dati scientifici che tentano di analizzare detto rischio non sono sufficienti o non sono giunti ad un risultato concludente e quindi la valutazione che viene fatta non consente di determinare il rischio con sufficiente certezza. La tesi dottorale focalizza la sua attenzione sull’applicazione del principio di precauzione ad un particolare bene, il medicinale; la necessità di minimizzare i rischi derivanti dall’assunzione del farmaco richiede un presidio dei pubblici poteri e di conseguenza questo comporta la necessità di “amministrare” il medicinale anche attraverso una serie di autorizzazioni amministrative quali l’autorizzazione alla produzione, l’autorizzazione all’immissione in commercio, l’autorizzazione alla distribuzione ed alla commercializzazione.
Resumo:
La detenzione amministrativa degli stranieri, pur condividendo il carattere tipicamente afflittivo e stigmatizzante delle pene, non si fonda sulla commissione di un reato e non gode delle medesime garanzie previste dal sistema della giustizia penale. Nel nostro ordinamento l’inadeguatezza della legislazione, l’ampio margine di discrezionalità rimesso all’autorità di pubblica sicurezza, nonché il debole potere di sindacato giurisdizionale rimesso all’autorità giudiziaria, raggiungono il loro apice problematico nell’ambito delle pratiche di privazione della libertà personale che hanno per destinatari gli stranieri maggiormente vulnerabili, ossia quelli appena giunti sul territorio e il cui status giuridico non è ancora stato accertato (c.d. situazione di pre-admittance). E’ proprio sulla loro condizione che il presente lavoro si focalizza maggiormente. Le detenzioni de facto degli stranieri in condizione di pre-admittance sono analizzate, nel primo capitolo, a partire dal “caso Lampedusa”, descritto alla luce dell’indagine sul campo condotta dall’Autrice. Nel secondo capitolo viene ricostruito lo statuto della libertà personale dello straniero sulla base dei principi costituzionali e, nel terzo capitolo, sono analizzati i principi che informano il diritto alla libertà personale nell’ambito delle fonti sovranazionali, con particolare riferimento al diritto dell’Unione Europea e al sistema della Convenzione Europea dei Diritti dell’Uomo. Sulla scorta dei principi indagati, nel quarto capitolo è tracciata l’evoluzione legislativa in materia di detenzione amministrativa dello straniero in Italia e, nel quinto capitolo, è approfondito il tema dei Centri dell’immigrazione e delle regole che li disciplinano. Nelle conclusioni, infine, sono tirate le fila del percorso tracciato, attraverso la valutazione degli strumenti di tutela in grado di prevenire le pratiche di privazione della libertà informali e di garantire uno standard minimo nella tutela della libertà individuale, anche nelle zone di frontiera del nostro ordinamento.
Resumo:
Con l’incremento della popolazione mondiale e la conseguente crescita del fabbisogno di energia dovuta a nuovi lavori e sempre più macchinari in circolazione, è insorta l'esigenza di produrre più energia elettrica. A partire dagli anni ’50 numerosi scienziati hanno analizzato il problema energetico e sono giunti alla conclusione che fonti di energia come petrolio, carbone e gas non erano in grado di soddisfare il bisogno umano sul lungo termine e si è quindi passati alla ricerca di altre fonti di energia come il nucleare. Oggi, grazie ad un progetto ed uno studio di circa 50 anni fa – finalizzato alla alimentazione di satelliti geostazionari - , si sta sempre di più affermando la scelta del fotovoltaico, in quanto rappresenta un’energia pulita e facilmente utilizzabile anche nei luoghi dove non è possibile avere un allaccio alla normale rete elettrica. La ricerca di questo nuovo metodo di produrre energia, che tratta la conversione di luce solare in energia elettrica, si è evoluta, differenziando materiali e metodi di fabbricazione delle celle fotovoltaiche, e quindi anche dei moduli fotovoltaici. Con la crescente produzione di apparati elettronici si è arrivati però ad avere un nuovo problema: il consumo sempre maggiore di silicio con un conseguente aumento di prezzo. Negli ultimi anni il prezzo del silicio è significativamente aumentato e questo va a pesare sull’economia del pannello fotovoltaico, dato che questo materiale incide per il 40-50% sul costo di produzione. Per questo motivo si sono voluti trovare altri materiali e metodi in grado di sostituire il silicio per la costruzione di pannelli fotovoltaici, con il seguire di nuovi studi su materiali e metodi di fabbricazione delle celle. Ma data la conoscenza e lo studio dovuto ai vari utilizzi nell’elettronica del silicio, si è anche studiato un metodo per ottenere una riduzione del silicio utilizzato, creando wafer in silicio sempre più sottili, cercando di abbassare il rapporto costo-watt , in grado di abbassare i costi di produzione e vendita.
Resumo:
Sono stati studiati ed applicati metodi “green” per l’estrazione di poliidrossialcanoati (PHA) da colture microbiche singole (Cupriavidus necator) e miste. Sono stati effettuati esperimenti che prevedono l’utilizzo di surfattanti anionici switchable (SAS) per l’estrazione del polimero, al fine di arrivare ad un protocollo ottimale per l’estrazione di PHB da C.necator che prevede l’uso di NH4 laurato come SAS (100 wt% rispetto al peso dei batteri) per tre ore a 90°C. La sostanza ambifilica agisce distruggendo la membrana cellulare esponendo così i granuli di PHB. Il SAS utilizzato si caratterizza per la possibilità di essere recuperabile tramite aggiunta di CO2 al sistema con una resa del 98%. Per le colture microbiche miste, più refrattarie all’impiego dei surfattanti, sono stati utilizzati dei pre-trattamenti, meccanici e fotocatalitici, al fine di indebolire la membrana batterica. Per il trattamento meccanico sono stati impiegati un omogeneizzatore e un sonicatore ad ultrasuoni; mentre per il trattamento fotocatalitico è stata sperimentata l’azione del nano biossido di titanio (sospensione 1% nano-TiO2) in miscela con i batteri, esposti a radiazioni UV. Dai risultati ottenuti sia il trattamento meccanico che quello fotocatalitico non sono risultati adeguati per i batteri misti. Infine il PHB estratto dalla biomassa batterica è stato purificato con un trattamento fotocatalitico che prevede l’utilizzo di nano-TiO2 1% supportato in tessuti, esposti a luce UV. I risultati di questo post-trattamento mostrano che, anche utilizzando diverse tipologie di tessuto, il PHB viene in parte adsorbito dal tessuto, con la seguente perdita di campione. In conclusione il trattamento del C. necator con i SAS risulta essere un ottimo metodo di estrazione di PHB considerando sia la qualità del polimero estratto sia il riciclo e il riutilizzo del surfattante, mentre per il trattamento delle colture microbiche miste ancora non è stato trovato un protocollo soddisfacente.