28 resultados para copolimeri statistici compatibilizzante blend blend eterogenei PLA PCL
Resumo:
Plastic solar cells bear the potential for large-scale power generation based on flexible, lightweight, inexpensive materials. Since the discovery of the photo-induced electron transfer from a conjugated polymer (electron-donor) to fullerene or its derivatives molecules (electron-acceptors), followed by the introduction of the bulk heterojunction concept which means donors and acceptors blended together to realize the fotoactive layer, materials and deposition techniques have been extensively studied. In this work, electrochemical-deposition methods of polymeric conductive films were studied in order to realize bulk heterojunction solar cells. Indium Tin Oxide (ITO) glass electrodes modified with a thin layer of poly(3,4-ethylenedioxythiophene) (PEDOT) were electrochemically prepared under potentiodynamic and potentiostatic conditions; then those techniques were applied for the electrochemical co-deposition of donor and acceptor on modified ITO electrode to produce the active layer (blend). For the deposition of the electron-donor polymer the electropolymerization of many functionalized thiophene monomers was investigated while, as regards acceptors, fullerene was used first, then the study was focused on its derivative PCBM ([6,6]-phenyl-C61-butyric acid methyl ester). The polymeric films obtained (PEDOT and blend) were electrochemically and spectrophotometrically characterized and the film thicknesses were evaluated by atomic force microscopy (AFM). Finally, to check the performances and the efficiency of the realized solar cells, tests were carried out under standard conditions. Nowadays bulk heterojunction solar cells are still poorly efficient to be competitively commercialized. A challenge will be to find new materials and better deposition techniques in order to obtain better performances. The research has led to several breakthroughs in efficiency, with a power conversion efficiency approaching 5 %. The efficiency of the solar cells produced in this work is even lower (lower than 1 %). Despite all, solar cells of this type are interesting and may represent a cheaper and easier alternative to traditional silicon-based solar panels.
Resumo:
Le tecniche di polimerizzazione radicalica vivente hanno acquisito negli ultimi anni grande risonanza presso la comunità scientifica, grazie alla loro versatilità sia in termini di monomeri utilizzabili, che di condizioni operative. Oltre a ciò, esse permettono un buon controllo del peso molecolare e della struttura chimica del polimero e prevedono anche la possibilità di funzionalizzare facilmente i gruppi terminali delle catene. Tra queste tecniche, la Reversible Addition–Fragmentation chain Transfer polymerization (RAFT) risulta essere una delle più conosciute ed utilizzate, in quanto permette di ottenere materiali funzionalizzati con architetture molecolari particolarmente sofisticate e/o strutture in grado di autoorganizzarsi spazialmente. In questo contesto, sono stati sintetizzati mediante RAFT dei copolimeri anfifilici contenenti cromofori azobenzenici, in grado di autoassemblarsi in micelle sensibili a stimoli esterni, quali variazioni di temperatura e irraggiamento luminoso ad una adeguata lunghezza d’onda.
Resumo:
Il presente lavoro di tesi di laurea magistrale è stato incentrato sulla sintesi e caratterizzazione di due copolimeri regioregolari poli[3-esiltiofene-co-(3-[5-(4-fenossi)-10,15,20-trifenilporfinil]esiltiofene)] contenenti diversa percentuale di sostituente porfirinico, ottenuti per post-funzionalizzazione con 5-(4-idrossifenil)-10,15,20-trifenilporfirina di due copolimeri regioregolari poli[3-esiltiofene-co-(3-(6-bromoesil)tiofene)] contenenti diverse percentuali di sostituente esilico bromurato, appositamente sintetizzati. E’ stato inoltre preparato il copolimero non regioregolare poli[3-dodeciltiofene-co-(3-[5-(4-fenossi)-10,15,20-trifenilporfinil]esiltiofene)] partendo da un comonomero con una catena alchilica laterale più lunga, il 3-dodeciltiofene, per evitare l’eventuale insolubilità del copolimero finale e per avere un ulteriore termine di paragone derivante dall’utilizzo di catene alchiliche di diversa lunghezza. I prodotti polimerici sintetizzati sono stati caratterizzati mediante tecniche spettroscopiche (NMR, FT-IR, UV-Vis), ne sono state determinate le proprietà termiche tramite analisi DSC e TGA ed i pesi molecolari medi con la relativa distribuzione, mediante cromatografia a permeazione su gel (GPC). Tali derivati sono stati successivamente testati attraverso prove di preparazione e caratterizzazione di dispositivi fotovoltaici, Le prestazioni delle celle fotovoltaiche realizzate utilizzando i copolimeri prodotti sono state misurate tramite un multimetro Keithley ed un Solar Simulator, che permette di riprodurre l’intero spettro della radiazione solare.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Lo studio della tesi consiste nella determinazione della concentrazione micellare critica di micelle ottenute da un copolimero a blocchi anfifilico sintetizzato tramite polimerizzazione radicalica vivente RAFT. Il copolimero è stato successivamente funzionalizzato al fine di garantire fluorescenza al polimero e ottenere effetto FRET in presenza di nile red quando è presente sotto forma di micelle.
Resumo:
Nell'ultimo decennio sono stati sviluppati numerosi materiali π-coniugati contenenti unità tiofeniche per applicazioni in dispositivi organici a film sottile. Nel campo delle celle solari, la possibilità di creare dispositivi basati sull’utilizzo di materiali organici, rispetto ai dispositivi attualmente in commercio a base di silicio, ha suscitato grande interesse soprattutto per la possibilità di realizzare dispositivi su larga area con basso costo di produzione e su substrati flessibili. Gli oligo- e i politiofeni sono eccellenti candidati grazie alle ottime proprietà di trasporto di carica e alle caratteristiche di assorbimento di luce. In celle solari di tipo Bulk-Heterojunction (BHJ), ad esempio, il poli(3-esiltiofene) è uno tra i materiali più studiati. Ad oggi, con il P3HT sono state raggiunte efficienze certificate superiori all’8%, variando sia parametri dipendenti dalla struttura molecolare, come ad esempio il peso molecolare, la regioregolarità delle catene alchiliche, il grado di polidispersità, il grado di polimerizzazione, sia parametri da cui dipende l’organizzazione della blend donatore-accettore. Per superare l’efficienza di conversione ottenuta con i polimeri classici come il P3HT è necessario progettare e sintetizzare materiali con precise caratteristiche: basso energy gap per aumentare l’assorbimento di luce, elevata mobilità di carica per avere una rapida estrazione delle cariche, posizione ottimale degli orbitali di frontiera per garantire una efficiente dissociazione dell’eccitone ed infine buona solubilità per migliorare la processabilità. Il presente lavoro di tesi si è articolato nei seguenti punti: sintesi di oligo- e politiofeni tioalchil sostituiti con inserzione di unità benzotiadiazolo per massimizzare l’assorbimento ed abbassare il gap energetico; studio dell’effetto della ramificazione del gruppo tioalchilico sull’organizzazione supramolecolare allo stato solido e successiva ottimizzazione della morfologia del film solido variando metodi di deposizione e solventi; applicazione degli oligomeri e dei polimeri sintetizzati come materiali donatori in celle fotovoltaiche di tipo Bulk-Heterojunction in presenza di fenil-C61-butirrato di metile (PCBM) come materiale accettore.
Resumo:
Durante i processi di estrazione può avvenire la formazione spontanea d’idrati di gas naturali, i quali, agglomerandosi, possono ostruire le tubazioni. Inibire la formazione degli idrati è quindi di fondamentale importanza al fine di prevenire danni ambientali ed economici. In questo contesto abbiamo ritenuto interessante sintetizzare diversi copolimeri a struttura controllata con lo scopo di utilizzarli come inibitori d’idrati. In particolare, dopo aver ottimizzato la sintesi dell’omopolimero costituente il primo blocco mediante ATRP, questo è stato utilizzato come macroiniziatore per la successiva copolimerizzazione di tre altri monomeri a diversa polarità. L’efficienza d’inibizione di tutti i derivati copolimerici ottenuti è stata testata e confrontata con quella di additivi commerciali attualmente in uso mediante DSC.
Resumo:
All’interno di questa tesi è stata affrontata la tematica della realizzazione di comuni- cazioni sicure, in modo da ottenere l'indipendenza di queste ultime dal canale utilizzato, con l'ausilio di strumenti in grado di fornire supporto per la creazione di applicativi orientati allo scambio di dati e messaggi, quali i linguaggi di programmazione Java e Jolie, il quale è basato sul precedente. Sono state inizialmente analizzate le principali caratteristiche e le problematiche più importanti che è necessario dover risolvere in modo da poter arrivare al risultato desiderato. Successivamente, è stato dato un ampio sguardo ad una delle scienze più applicate per risolvere i problemi tipici che affliggono questo tipo di comunicazioni, la crittografia. Sono stati elencati gli strumenti messi a disposizione ed il loro funzionamento. La crittografia viene poi applicata al protocollo SSL, il quale rappresenta la soluzione maggiormente diffusa, sia sul Web che in altri ambiti, per proteggere le informazioni personali che transitano tra gli end-point di una comunicazione. Sono state elencate le principali caratteristiche, alcuni cenni riguardanti la nascita e lo sviluppo ed è stato descritto il funzionamento di questo protocollo, soprattutto per quanto riguarda la sua fase preliminare, che è una delle parti che lo caratterizzano maggiormente. In seguito, è stata analizzata la soluzione fornita all’interno delle librerie del linguaggio Java per realizzare comunicazioni indipendenti dal mezzo di comunicazione che soddisfino le politiche dettate dal protocollo SSL. Questa soluzione è rappresentata dalla classe SSLEngine, che è quindi stata esaminata, a partire dal ciclo di vita e dall'inizializzazione, fino ad arrivare all'interazione all'interno di un applicazione. Quanto esplorato in precedenza viene poi applicato a Jolie, un linguaggio di programmazione basato sulle comunicazioni e sviluppato in Java, all'interno dell'Università di Bologna. Dopo uno sguardo generale alle sue caratteristiche è stata approfondita la gestione dei protocolli, e di conseguenza, l'introduzione di SSL all'interno di essi, realizzata tramite la classe SSLProtocol. Questa classe contiene ed implementa i concetti analizzati nel capitolo riguardante Java, adattandoli all'architettura ed alla progettazione pensata appositamente per Jolie; è stata quindi effettuata un'analisi del codice e della gestione della classe SSLEngine per realizzare comunicazioni sicure. Infine, per verificare l’effettivo funzionamento, sono stati creati due semplici casi d’uso per poter sfruttare i vantaggi offerti da Jolie, il quale è particolarmente indicato per la creazione di applicazioni orientate ai servizi.
Resumo:
In questo lavoro di tesi, si cerca di studiare una reazione in grado di generare doppi legami sulla catena polimerica di un fluoroelastomero e analizzare le caratteristiche del polimero così ottenuto. I siti di insaturazione generati potranno essere sfruttati per successive reazioni di funzionalizzazione del polimero o per un eventuale processo di vulcanizzazione radicalico. La reazione utilizzata consiste in una deidrofluorurazione in ambiente alcalino di un copolimero VDF/HFP di produzione industriale. Essa è stata condotta sia in un sistema bifasico, sia in una fase omogenea, a 24 tempi e temperature diversi. La formazione dei doppi legami è stata analizzata tramite spettroscopia di risonanza magnetica al nucleo di fluoro (19F-NMR) e spettroscopia infrarossa. La possibilità di poter sfruttare le insaturazioni generate è stata studiata mediante prove di reticolazione via perossido indotta da radiazione UV, radiazione visibile ed energia termica. Nei primi due casi, il fenomeno è stato monitorato con spettri IR e UV-Vis, nel secondo caso la reazione è stata seguita per via reometrica (ODR: Oscillating Disk Reometer). Il lavoro è stato svolto in collaborazione con Elastomers Union srl, azienda con stabilimento di produzione a Castel Guelfo, specializzata nella preparazione di compound a base fluoroelastomerica e fluorosiliconica.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.