206 resultados para cheratina grafene ossido elettrofilatura rilascio controllato di farmaci PLA nanofibre
Resumo:
Una delle grandi sfide della medicina moderna e dell’ingegneria biomedica è rappresentata dalla rigenerazione e il recupero dei tessuti nervosi. I danni al Sistema Nervoso Centrale (SNC) e Periferico (SNP) provocano effetti irreversibili e influiscono sulla qualità della vita dei pazienti. L’ingegneria tissutale è stata definita come “un campo interdisciplinare che applica i principi dell’ingegneria e delle scienze della vita per lo sviluppo di sostituti biologici che ripristinino, mantengano, o migliorino la funzione di un tessuto o di un intero organo” (Langer R et al, 1993). Lo sviluppo dei biomateriali, i progressi scientifici nel campo delle cellule staminali e dei fattori di crescita, nonché le migliorie nelle tecniche di differenziazione e del rilascio dei farmaci offrono nuove opportunità di sviluppo terapeutico. Sono stati infatti creati tessuti in laboratorio attraverso la combinazione di matrici extracellulari ingegnerizzate, comunemente definite scaffold, cellule e molecole biologicamente attive. Tali “impalcature”, forniscono un supporto fisico e biochimico alla crescita delle cellule nervose. In quest’ottica si configura come essenziale il contributo della seta e di una sua particolare molecola: la fibroina. Quest’ultima grazie alle specifiche caratteristiche di biocompatibilità, lenta degradabilità e alle notevoli proprietà meccaniche, è stata ampiamente studiata, in anni recenti, per nuove applicazioni in ambito biomedico, come nel caso dell’ingegneria dei tessuti e del rilascio di farmaci. La fibroina della seta utilizzabile in vari formati quali film, fibre, reti, maglie, membrane, gel e spugne supporta l'adesione, la proliferazione e la differenziazione in vitro di diversi tipi di cellule. In particolare studi recenti indicano che la seta ha una buona compatibilità per la crescita di cellule neuronali dell'ippocampo. In questo elaborato saranno presentate le caratteristiche della fibroina della seta come biomateriale, con particolare riferimento all’ingegnerizzazione e al processo di fabbricazione degli scaffold finalizzati al supporto della rigenerazione cellulare – neuronale in caso di insulti traumatici, acuti e/o cronici del Sistema Nervoso.
Resumo:
Con il seguente elaborato si vuole evidenziare il percorso seguito per progettare e realizzare una macchina automatica adibita all’applicazione del sigillo di anti effrazione sulle diverse confezioni di farmaci presenti nel mercato farmaceutico. Obiettivo dunque del lavoro che viene presentato è quello di esplicitare e motivare le diverse scelte fatte in campo progettuale, grazie alle quali si è giunti alla realizzazione vera e propria della macchina in tutte le sue componenti e alla vendita di quest’ultima ad una casa farmaceutica del torinese. L’elaborato è così suddiviso: nella prima parte verrà descritta l’azienda demandante del progetto, la sua attività ed il suo campo di ricerca. Seguirà poi la descrizione dell’operazione per cui la macchina è stata concepita, i requisiti minimi di produttività che quest’ultima deve avere, e il campo di utilizzo. Nella seconda parte verranno presentati i vari gruppi che compongono la macchina, esplicitando la loro funzione, gli studi e le scelte fatte per la loro realizzazione, portando foto e disegni CAD dei componenti. Verranno poi descritti gli accorgimenti per la corretta installazione della macchina ed in fine verranno descritte le operazioni di collaudo effettuate sulla macchina, quali SAT (Site Acceptance Tests - Collaudo del sistema presso l’Utilizzatore) e FAT (Factory Acceptance Tests - Collaudo del sistema presso il costruttore)
Resumo:
Il presente lavoro di tesi si propone di esaminare i processi di contaminazione del suolo e delle acque sotterranee conseguenti ad un fenomeno di “oil spill”: con tale termine si vuole intendere un fenomeno di rilascio accidentale di sostanze chimiche, come il benzene, dovuto al danneggiamento di lunghe condotte onshore realizzate per trasferire, tali sostanze, anche per distanze di centinaia di chilometri. Sebbene le basse frequenze incidentali confermino che il trasporto in condotta rappresenta la modalità di movimentazione via terra più sicura per fluidi chimici, bisogna tuttavia tener presente che i quantitativi di sostanze che possono essere rilasciate da questi impianti sono molto elevati.In questo lavoro, si è partiti con l’esaminare un caso studio riportato in letteratura, relativo alla valutazione quantitativa del rischio ambientale legato a fenomeni di oil spill da condotte onshore [Bonvicini et al., 2014]. Si è considerato, in particolare, un singolo tratto di una lunga condotta industriale, in corrispondenza del quale si è ipotizzato il verificarsi di una rottura, con conseguente rilascio di contaminante nel sottosuolo. L’impianto in questione è finalizzato al trasporto di benzene (LNAPL), idrocarburo aromatico cancerogeno, fortemente pericoloso per l’ambiente e per l’uomo.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
In questo lavoro di tesi abbiamo studiato la relazione esistente tra la concentrazione di drogante in un wafer di silicio e l’energia superficiale del suo ossido nativo. La strumentazione utilizzata per la misura dell’energia superficiale è il tensiometro ottico, uno strumento semplice ma efficace per valutare le proprietà chimico-fisiche dell’interfaccia liquido-solido. Il tensiometro ottico misura l’angolo di contatto statico e dinamico. La misura dell’angolo statico ci ha permesso di valutare l’energia superficiale dell’ossido nativo attraverso il metodo di Owen-Wendt. Per valutare l’omogeneità chimica/fisica dell’ossido abbiamo invece misurato l’isteresi dell’angolo di contatto in configurazione dinamica. Le misure di angolo statico e dinamico sono state realizzate su 10 frammenti di wafer di silicio a concentrazione crescente da 10^13 a 10^19 atomi/cm^3 di entrambi i tipi di drogante (ossia di tipo p - boro - e di tipo n - fosforo -). E’ stato osservato che, per i substrati drogati con boro, l’energia superficiale presenta un picco corrispondente ad una concentrazione di circa 10^15 atomi/cm^3 nell’intervallo di concentrazione 2 · 10^13 − 1.6 · 10^16 atomi/cm^3. Mentre i campioni drogati con fosforo presentano un andamento dell’energia superficiale leggermente crescente al crescere della concentrazione di drogaggio nell’intervallo di concentrazione 6.5 · 10^14 − 1.5 · 10^19 atomi/cm^3. Questo risultato è stato correlato alla diffusione degli atomi di drogante nell’ossido che raggiunge l’interfaccia SiO2 − Aria. L’osservazione sperimentale che l’energia superficiale dell’ossido dipenda dalla concentrazione di drogante è avvalorata dal confronto fra la componente polare e dispersiva, in particolare la componente polare presenta lo stesso picco osservato nell’energia superficiale. Le impurità nell’ossido, determinate dagli atomi di drogante, conferiscono quindi polarità alla superficie aumentando l’energia superficiale totale. Dal confronto fra le misure dei campioni as received con le misure dell’ossido ricostruito dopo 7 e 21 giorni di esposizione all’aria, ricaviamo che gli atomi di drogante diffondono nel tempo e, in particolare, la polarità superficiale ritorna alle con- dizioni as recived dopo 21 giorni dalla rimozione dell’ossido. E’ stata simulata numericamente una goccia su una superficie, comprendendo come il picco osservato nell’energia superficiale corrisponde ad un minimo dell’energia di Gibbs per i campioni di tipo p. Infine, l’isteresi aumenta in valor medio per i campioni con ossido ricostruito rispetto ai campioni as recived, ad indicare una possibile variazione dell’omogeneità chimico-fisica delle superfici.
Resumo:
La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.
Resumo:
I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.
Resumo:
Il presente elaborato di tesi si pone come obiettivo quello di valutare il rischio per l’ambiente causato dal rilascio accidentale di idrocarburi liquidi; in particolare è stato preso a riferimento un deposito reale contenente tali sostanze e si è valutato il rischio ambientale da esso generato nelle matrici del suolo e sottosuolo e delle acque superficiali. Per far ciò sono stati applicati il metodo speditivo descritto nel Rapporto 57/2005 (Rapporto APAT) elaborato dal Gruppo misto APAT/ARPA/CNVVF, che ha provveduto all'individuazione di una metodologia speditiva per la valutazione del rischio per l’ambiente da incidenti rilevanti in depositi di idrocarburi liquidi con riferimento a suolo e sottosuolo, e il metodo speditivo per le acque superficiali descritto nel Rapporto ISPRA 92/2013, che riporta criteri e indirizzi tecnico-operativi per la valutazione delle analisi degli incidenti rilevanti con conseguenze per l’ambiente. Il Rapporto APAT propone una metodologia speditiva ad indici; per la sua applicazione è necessario calcolare 2 indici: l’Indice di Propensione al Rilascio, che si ottiene dalla conoscenza delle caratteristiche impiantistiche del deposito preso in esame e l’Indice di Propensione alla Propagazione, che si ottiene dalla conoscenza delle caratteristiche idrogeologiche del sito su cui insiste il deposito. Il Rapporto ISPRA presenta invece diverse metodologie per la valutazione del rischio ambientale maturate in ambito europeo e propone un nuovo metodo a indici per la valutazione del rischio ambientale per le acque superficiali. Per l’applicazione di tale metodo a indici si è calcolato dapprima l’Indice di Propensione al Rilascio, così come richiesto anche nel metodo speditivo per suolo e sottosuolo e si è successivamente classificato il corpo idrico su cui insiste il deposito. Attraverso l’applicazione dei 2 metodi è stato dunque possibile valutare il livello di criticità ambientale del deposito, determinando la necessità di procedere con una metodologia semplificata o una metodologia avanzata per la stima del rischio di contaminazione ambientale.
Resumo:
Il grafene è un cristallo bidimensionale di atomi di carbonio, isolato per la prima volta nel 2004 da due fisici che per questo risultato vinsero il premio Nobel per la Fisica nel 2010. Il grafene possiede proprietà chimiche e fisiche superiori, quali un’elevata resistenza chimica e meccanica e un’eccellente conducibilità termica ed elettrica. Inoltre possiede altre due caratteristiche che lo rendono particolarmente promettente in diversi ambiti applicativi: leggerezza e trasparenza ottica. In questo elaborato ho descritto le attività svolte seguendo le ricerche che vengono svolte al CNR-IMM di Bologna, dove questo materiale viene prodotto tramite la tecnica di Chemical Vapor Deposition e studiato per l’integrazione in dispositivi elettronici ed elettro-meccanici innovativi. Durante la mia esperienza di laboratorio all’IMM ho seguito i procedimenti che portano al trasferimento del grafene sintetizzato su substrati catalitici di rame sui substrati finali per la successiva integrazione nella tecnologia del silicio. Nell’elaborato vengono da prima descritte la struttura cristallina ed elettronica e successivamente presentate alcune proprietà di cui gode e messe in relazione con i materiali attualmente in uso. Segue una breve trattazione bibliografica di alcune delle principali tecniche di produzione del grafene, trattando più nel dettaglio la tecnica CVD attualmente in uso per la sintesi di grafene all’interno dei laboratori del CNR-IMM di Bologna. La parte principale di questa esperienza di laboratorio è stato di seguire in prima persona le attuali ricerche del gruppo di lavoro per la messa a punto di un metodo alternativo che utilizza il ciclododecano per il trasferimento del grafene sintetizzato su rame al posto del classico strato sacrificale polimerico di PMMA. Nell’elaborato il confronto tra le due tecniche viene eseguito confrontando i risultati del trasferimento analizzando la morfologia dei campioni finali con tecniche di microscopia elettronica in scansione
Resumo:
Vengono analizzate le strategie di rilascio delle principali Distribuzioni Linux e i metodi per la compilazione automatizzata del software. Si propone quindi una nuova metodologia sia per il rilascio di media installabili e sia per la pacchettizzazione. Sfruttando le tecnologie del campo DevOps, si introduce quindi un alto grado di scalabilità anche in ambienti Cloud, grazie anche alla riproducibilità di ogni componente dell'infrastruttura proposta. Vedremo quindi come questo approccio aumenta l'automatizzazione nei cicli produttivi per la realizzazione della Distribuzione Sabayon Linux e per la definizione di un'infrastruttura automatizzata attualmente in production.
Resumo:
Supportato da una crescente consapevolezza ambientale, il glicerolo carbonato ha guadagnato molto interesse negli ultimi 20 anni grazie alla sua versatile reattività e alla possibilità di valorizzare il glicerolo co-prodotto nella sintesi di biodiesel. Sono stati identificati numerosi percorsi di sintesi per questa molecola, alcuni dei quali molto promettenti e sul punto di essere applicati su scala industriale. Qui, riportiamo uno studio volto a valorizzare il glicerol carbonato come intermedio chimico, in particolare come agente alchilante innovativo del fenolo al fine di sintetizzare aril gliceril eteri. Queste molecole trovano importanti applicazioni come intermedi chiave per la sintesi di un'ampia classe di farmaci e agenti terapeutici. Abbiamo effettuato la reazione in massa senza l’impiego di solventi, con una miscela di glicerolo carbonato e fenolo, in presenza di un catalizzatore basico (omogeneo o eterogeneo). È interessante notare come, nelle condizioni ottimizzate, sia stato possibile ottenere un'alta conversione dei reagenti, unita ad una elevata resa e selettività negli aril gliceril eteri voluti, già dopo poche ore di reazione. Inoltre, è stato proposto un approccio multi-step per la sintesi selettiva di difenil gliceril eteri.
Sintesi di nuovi derivati pirimidinici e valutazione della loro attività biologica come antitumorali
Resumo:
L'inibizione dell'attività della proteina CDC20, importante nel processo di regolazione del ciclo cellulare, è attualmente considerata un target sul quale indirizzare la ricerca di farmaci per il trattamento della leucemia mieloide acuta (LAM). Recenti studi hanno evidenziato che il nucleo 2-amminopirimidinico e il gruppo tricloroetilenico si sono dimostrati essenziali per l’inibizione del processo di attivazione di CDC20. In questo lavoro di tesi è spiegata la sintesi di derivati indolici, benzotiazolici e benzofurazanici aventi in comune i gruppi 2-amminopirimidinico e tricloroetilenico; sono inoltre riportati i risultati dei saggi di attività biologica effettuati su linee cellulari di LAM e altri carcinomi umani.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
La giunzione miotendinea (MTJ) è una struttura anatomica specializzata che collega il muscolo al tendine. La sua funzione è quella di permettere la trasmissione della forza generata dal muscolo al tendine, permettendo il movimento. Essendo una struttura di interfaccia che funge da raccordo tra due tipi di tessuti molto differenti, tende a risentire di una forte concentrazione di tensione, questo la rende fortemente suscettibile a rottura. Le tecniche ad oggi utilizzare per riparare lesioni alla MTJ risultano inadatte ad una completa ed ottimale ripresa meccanica. Al fine di trovare una soluzione a questo problema, l’ingegneria tissutale sta lavorando alla fabbricazione di strutture tridimensionali che siano in grado di imitare al meglio la struttura nativa della MTJ. Le tecniche utilizzate per la produzione di tali strutture sono, principalmente, stampa 3D ed elettrofilatura. Il vantaggio di queste tecniche è la loro elevata risoluzione, che permette di controllare finemente l’architettura di tali strutture artificiali. Nella seguente tesi verrà presentato lo stato dell’arte sulle tecniche utilizzate per la fabbricazione di scaffolds per la rigenerazione della MTJ, soffermandosi in particolare sui metodi di fabbricazione e sulle prestazioni morfologiche, meccaniche e cellulari effettuando un confronto tra i diversi studi che se ne sono occupati, individuandone punti di forza, debolezze e possibili studi futuri che potranno essere effettuati su tali scaffolds. In questo modo, sarà possibile rendersi conto di quale di queste tecniche risulti essere più promettente per il futuro.
Resumo:
L’ossido di grafene (GO) è un materiale stratificato prodotto dall'ossidazione di cristalli di grafite con una miscela di acido solforico, nitrato di sodio e permanganato di potassio. A differenza del grafene, l'ossido di grafene è fortemente ossigenato, reca gruppi funzionali ossidrilici ed epossidici sui piani basali, che sono dei punti di attacco ottimali per la funzionalizzazione e la compatibilizzazione del grafene con la matrice polimerica, oltre a gruppi carbonilici e carbossilici situati ai bordi dei piani. Una delle applicazioni più promettenti di questo materiale è nei nanocompositi polimerici, ovvero materiali a matrice polimerica che incorporano materiali riempitivi nanodimensionali. Grazie alle dimensioni estremamente ridotte della carica e della sua elevata area superficiale, che garantisce una elevata interazione interfacciale polimero/riempitivo, basse quantità di nanocariche sono in grado di modificare pesantemente le proprietà della matrice migliorandone notevolmente le performance, così da ottenere notevoli incrementi prestazionali nel polimero. In questo lavoro di tesi, si è studiata la possibilità di aggiungere il GO in matrice poliuretanica al fine di migliorarne le proprietà. Il lavoro di tesi ha dimostrato su scala di laboratorio una produttività compatibile con le esigenze industriali. Potrebbero così essere preparati materiali più leggeri ed estremamente performanti con applicazioni nel campo automobilistico, aerospaziale, aeronautico e dei materiali in generale. L’incremento delle proprietà meccaniche ottenute con l’aggiunta di piccolissime quantità di GO, può essere sfruttato nella costruzione di manufatti che debbano sopportare carichi elevati senza modificare le altre proprietà del materiale (prodotto ad elevato valore aggiunto).