974 resultados para pacemaker, defibrillatore, cuore, evoluzione, dispositivi
Resumo:
Heart diseases are the leading cause of death worldwide, both for men and women. However, the ionic mechanisms underlying many cardiac arrhythmias and genetic disorders are not completely understood, thus leading to a limited efficacy of the current available therapies and leaving many open questions for cardiac electrophysiologists. On the other hand, experimental data availability is still a great issue in this field: most of the experiments are performed in vitro and/or using animal models (e.g. rabbit, dog and mouse), even when the final aim is to better understand the electrical behaviour of in vivo human heart either in physiological or pathological conditions. Computational modelling constitutes a primary tool in cardiac electrophysiology: in silico simulations, based on the available experimental data, may help to understand the electrical properties of the heart and the ionic mechanisms underlying a specific phenomenon. Once validated, mathematical models can be used for making predictions and testing hypotheses, thus suggesting potential therapeutic targets. This PhD thesis aims to apply computational cardiac modelling of human single cell action potential (AP) to three clinical scenarios, in order to gain new insights into the ionic mechanisms involved in the electrophysiological changes observed in vitro and/or in vivo. The first context is blood electrolyte variations, which may occur in patients due to different pathologies and/or therapies. In particular, we focused on extracellular Ca2+ and its effect on the AP duration (APD). The second context is haemodialysis (HD) therapy: in addition to blood electrolyte variations, patients undergo a lot of other different changes during HD, e.g. heart rate, cell volume, pH, and sympatho-vagal balance. The third context is human hypertrophic cardiomyopathy (HCM), a genetic disorder characterised by an increased arrhythmic risk, and still lacking a specific pharmacological treatment.
Resumo:
Lo scopo di questo lavoro è analizzare se e in quali modi il linguaggio metaforico viene utilizzato nella lingua giuridica italiana e tedesca. In particolare, l’analisi verterà su testi giuridici specifici, quali leggi e sentenze. In un primo momento verrà chiarito che cosa s’intende quando si parla di metafora e verrà illustrato come la concezione di metafora è cambiata nel corso degli anni. Saranno illustrate, quindi, le principali teorie sulla metafora, a partire da Aristotele, colui che coniò il termine, arrivando fino alle teorie di linguisti e filosofi dell’età moderna, facendo particolarmente attenzione all’opera Metaphors We Live By pubblicata nel 1980 dagli studiosi americani Lakoff e Johnson, la quale rappresenta un approccio cognitivista allo studio della metafora. In seguito, il lavoro si concentrerà sulla relazione tra metafora e linguaggi specialistici, citando le famose teorie di Boyd e di Kuhn, per poi soffermarsi sulle posizioni sul linguaggio metaforico nei linguaggi specialistici di autori tedeschi e italiani rispetto alle proprie lingue. Rimanendo in questo ambito, verrà approfondito, dopo una breve illustrazione delle caratteristiche della lingua giuridica, il rapporto tra la metafora e, appunto, la lingua giuridica, fornendo le teorie di linguisti e filosofi tedeschi e italiani, ma anche di giuristi stessi. Si passerà poi al cuore di questo lavoro, ovvero l’analisi dei testi giuridici, in cui si vedrà secondo quali criteri e con che scopi gli autori dei testi presi in esame sfruttano il linguaggio metaforico. L’analisi verterà su testi che Mortara Garavelli definisce testi normativi e testi applicativi, ma siccome l’autrice cita anche testi che definisce interpretativi, verrà condotto anche un confronto tra l’analisi compiuta in questo lavoro sui primi due tipi di testi giuridici e l’analisi compiuta da Veronesi in Wege, Gebäude, Kämpfe: Metaphern im deutschen und italienischen rechtswissenschaftlichen Diskurs sui testi di tipo interpretativo.
Resumo:
Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.
Resumo:
La tesi analizza il mutamento in atto nelle fonti del diritto del lavoro, attraverso uno studio dei casi di rinvio dalla legge al contratto collettivo. Nella Parte I della tesi è affrontato il tema dei rapporti tra legge e contratto collettivo. In una prospettiva statica, i rapporti tra legge e contratto collettivo sono caratterizzati dall’operare dei principii di gerarchia e del favor: la legge prevede il trattamento minimo di tutela e il contratto collettivo può modificare tale trattamento in senso più favorevole al lavoratore. In una prospettiva dinamica, i rapporti tra legge e contratto collettivo sono più complessi: nell’ordinamento italiano, infatti, la disciplina del rapporto e del mercato del lavoro è caratterizzata da una valorizzazione degli apporti dell’autonomia collettiva. In particolare, il contratto collettivo è destinatario di una serie di rinvii, che lo autorizzano a completare la disciplina legale e a modificarla anche in senso meno favorevole al lavoratore, al fine di creare un mercato del lavoro maggiormente dinamico. Nella Parte II della tesi l’analisi si concentra sull’art. 8 della l. n. 148/2011. Tale disposizione è stata introdotta durante la crisi economico-finanziaria che ha colpito l’Italia tra il 2011 e il 2012, a seguito di trattative tra il Governo italiano e le istituzioni dell’UE, al fine di attribuire alle imprese uno strumento per incrementare la loro competitività e produttività. L’art. 8 autorizza il contratto collettivo a derogare in peius alla legge con riferimento a un arco tematico di materie e istituti che comprende l’intero profilo della disciplina del rapporto di lavoro, con alcune eccezioni. L’art. 8 rappresenta il punto di arrivo di una lunga evoluzione legislativa e consente di mettere in discussione la ricostruzione tradizionale dei rapporti tra legge e contratto collettivo basata sui principii di gerarchia e di favore.
Resumo:
L’elaborato si occupa di fare il punto in materia di indagini difensive a tre lustri dall’entrata in vigore della legge n. 397/2000, epilogo di un lungo processo evolutivo che ha visto da un lato, una gestazione faticosa e travagliata, dall’altro, un prodotto normativo accolto dagli operatori in un contesto di scetticismo generale. In un panorama normativo e giurisprudenziale in continua evoluzione, i paradigmi dettati dagli artt. 24 e 111 della Costituzione, in tema di diritto alla difesa e di formazione della prova penale secondo il principio del contraddittorio tra le parti, in condizioni di parità, richiedono che il sistema giustizia offra sia all’indagato che all’imputato sufficienti strumenti difensivi. Tenuto conto delle diversità che caratterizzano naturalmente i ruoli dell’accusa e della difesa che impongono asimmetrie genetiche inevitabili, l’obiettivo della ricerca consiste nella disamina degli strumenti idonei a garantire il diritto alla prova della difesa in ogni stato e grado del procedimento, nel tentativo di realizzare compiutamente il principio di parità accusa - difesa nel processo penale. La ricerca si dipana attraverso tre direttrici: l’analisi dello statuto sulle investigazioni difensive nella sua evoluzione storica sino ai giorni nostri, lo studio della prova penale nel sistema americano e, infine, in alcune considerazioni finali espresse in chiave comparatistica. Le suggestioni proposte sono caratterizzate da un denominatore comune, ovvero dal presupposto che per contraddire è necessario conoscere e che solo per tale via sia possibile, finalmente, riconoscere il diritto di difendersi indagando.
Resumo:
As a large and long-lived species with high economic value, restricted spawning areas and short spawning periods, the Atlantic bluefin tuna (BFT; Thunnus thynnus) is particularly susceptible to over-exploitation. Although BFT have been targeted by fisheries in the Mediterranean Sea for thousands of years, it has only been in these last decades that the exploitation rate has reached far beyond sustainable levels. An understanding of the population structure, spatial dynamics, exploitation rates and the environmental variables that affect BFT is crucial for the conservation of the species. The aims of this PhD project were 1) to assess the accuracy of larval identification methods, 2) determine the genetic structure of modern BFT populations, 3) assess the self-recruitment rate in the Gulf of Mexico and Mediterranean spawning areas, 4) estimate the immigration rate of BFT to feeding aggregations from the various spawning areas, and 5) develop tools capable of investigating the temporal stability of population structuring in the Mediterranean Sea. Several weaknesses in modern morphology-based taxonomy including demographic decline of expert taxonomists, flawed identification keys, reluctance of the taxonomic community to embrace advances in digital communications and a general scarcity of modern user-friendly materials are reviewed. Barcoding of scombrid larvae revealed important differences in the accuracy of the taxonomic identifications carried out by different ichthyoplanktologists following morphology-based methods. Using a Genotyping-by-Sequencing a panel of 95 SNPs was developed and used to characterize the population structuring of BFT and composition of adult feeding aggregations. Using novel molecular techniques, DNA was extracted from bluefin tuna vertebrae excavated from late iron age, ancient roman settlements Byzantine-era Constantinople and a 20th century collection. A second panel of 96 SNPs was developed to genotype historical and modern samples in order to elucidate changes in population structuring and allele frequencies of loci associated with selective traits.
Resumo:
Natural systems face pressures exerted by natural physical-chemical forcings and a myriad of co-occurring human stressors that may interact to cause larger than expected effects, thereby presenting a challenge to ecosystem management. This thesis aimed to develop new information that can contribute to reduce the existing knowledge gaps hampering the holistic management of multiple stressors. I undertook a review of the state-of-the-art methods to detect, quantify and predict stressor interactions, identifying techniques that could be applied in this thesis research. Then, I conducted a systematic review of saltmarsh multiple stressor studies in conjunction with a multiple stressor mapping exercise for the study system in order to infer potential important synergistic stressor interactions. This analysis identified key stressors that are affecting the study system, but also pointed to data gaps in terms of driver and pressure data and raised issues for potentially overlooked stressors. Using field mesocosms, I explored how a local stressor (nutrient availability) affects the responses of saltmarsh vegetation to a global stressor (increased inundation) in different soil types. Results indicate that saltmarsh vegetation would be more drastically affected by increased inundation in low than in medium organic matter soils, and especially in estuaries already under high nutrient availability. In another field experiment, I examined the challenges of managing co-occurring and potentially interacting local stressors on saltmarsh vegetation: recreational trampling and smothering by deposition of excess macroalgal wrack due to high nutrient loads. Trampling and wrack prevention had interacting effects, causing non-linear responses of the vegetation to simulated management of these stressors, such that vegetation recovered only in those treatments simulating the combined prevention of both stressors. During this research I detected, using molecular genetic methods, a widespread presence of S. anglica (and to a lesser extent S. townsendii), two previously unrecorded non-native Spartinas in the study areas.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .
Resumo:
Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.
Resumo:
La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.
Resumo:
Lo scopo di questa tesi è studiare l'espansione dinamica di due fermioni interagenti in una catena unidimensionale cercando di definire il ruolo degli stati legati durante l'evoluzione temporale del sistema. Lo studio di questo modello viene effettuato a livello analitico tramite la tecnica del Bethe ansatz, che ci fornisce autovalori ed autovettori dell'hamiltoniana, e se ne valutano le proprietà statiche. Particolare attenzione è stata dedicata alle caratteristiche dello spettro al variare dell'interazione tra le due particelle e alle caratteristiche degli autostati. Dalla risoluzione dell'equazione di Bethe vengono ricercate le soluzioni che danno luogo a stati legati delle due particelle e se ne valuta lo spettro energetico in funzione del momento del centro di massa. Si è studiato inoltre l'andamento del numero delle soluzioni, in particolare delle soluzioni che danno luogo ad uno stato legato, al variare della lunghezza della catena e del parametro di interazione. La valutazione delle proprietà dinamiche del modello è stata effettuata tramite l'utilizzo dell'algoritmo t-DMRG (time dependent - Density Matrix Renormalization Group). Questo metodo numerico, che si basa sulla decimazione dello spazio di Hilbert, ci permette di avere accesso a quantità che caratterizzano la dinamica quali la densità e la velocità di espansione. Da queste sono stati estratti i proli dinamici della densità e della velocità di espansione al variare del valore del parametro di interazione.
Resumo:
L'utilizzo di polimeri organici coniugati in dispositivi elettronici per applicazioni biologiche, grazie alle loro proprietà meccaniche ed elettriche, insieme alla loro biocompatibilità, è un campo di ricerca relativamente nuovo e in rapida espansione. In questo lavoro di tesi si utilizza la tecnica del Voltage Clamp in configurazione whole cell per caratterizzare le proprietà elettrofisiologiche della linea cellulare di glioblastoma multiforme (T98G) e per registrare le correnti ioniche di cellule adese su una matrice polimerica biocompatibile di poli(etilenediossitiofene)-poli(stirenesulfonato) (PEDOT:PSS). La tecnica consiste nel bloccare il potenziale di membrana al valore desiderato, secondo un preciso protocollo di stimolazione, misurando la corrente necessaria per mantenere costante il potenziale presente tra le due superfici della membrana cellulare. Nella prima parte del lavoro le cellule sono state perfuse con farmaci inibitori dei canali potassio, prima con il bloccante non specifico tetraetilammonio (TEA), e poi selettivamente tramite bloccanti specifici come iberiotossina e dendrotossina. Il 44% circa delle cellule ha evidenziato una significativa corrente residua riconducibile all'attività dei canali ionici voltaggio-dipendenti Kv1.2. Al contrario nelle cellule restanti questi canali non sono espressi. Successivamente, sempre utilizzando le T98G, si è analizzato come lo stato di ossido-riduzione del polimero coniugato PEDOT:PSS possa influenzare le correnti dei canali ionici di membrana; è emerso che il substrato di PEDOT:PSS ridotto provoca una diminuzione significativa della corrente registrata rispetto al substrato di controllo (petri in polistirene). Questi risultati sono stati confrontati con le curve di proliferazione delle cellule T98G coltivate per 24h, 48h e 72h sui diversi substrati considerati, evidenziando interessanti correlazioni nel caso del substrato PEDOT:PSS ridotto.
Resumo:
L’obiettivo del lavoro di tesi è quello di studiare l’integrazione del grafene con i processi tecnologici propri della tecnologia del silicio, per la realizzazione di dispositivi innovativi per la misura delle proprietà termiche e termoelettriche del grafene che sono tra le meno studiate ad oggi. L’attività sperimentale svolta, ha riguardato l’intero processo di produzione, processing ed integrazione tecnologica del grafene. Da una parte è stato messo a punto un processo ottimizzato, partendo da una approfondita ricerca bibliografica, per il trasferimento delle membrane dai substrati di crescita, in rame, a quelli di destinazione, SiO2 e Si3N4, mantenendo la completa compatibilità con i processi della microelettronica del silicio in particolare per quanto riguarda l’eliminazione dei residui metallici dalla sintesi. Dall’altra è stata sviluppata una procedura di patterning micrometrico del grafene, affidabile e riproducibile, e, soprattutto, compatibile con la microelettronica del silicio. Le membrane, cresciute tramite deposizione da fase vapore (Chemical Vapor Deposition), sono state caratterizzate tramite la microscopia elettronica, a scansione e in trasmissione, la microscopia ottica, spettroscopia Raman e microscopia a forza atomica, tecniche che sono state utilizzate per caratterizzare i campioni durante l'intero processo di patterning. Il processo di etching del grafene in ossigeno, realizzato con il plasma cleaner, strumento che nasce per la pulizia di campioni per microscopia elettronica, è stato messo a punto il attraverso una estesa attività di test sia dei parametri di funzionamento dello strumento che del fotoresist da utilizzare. La procedura di patterning micrometrico vera e propria, ha comportato di affrontare diverse classi di problemi, dalla rimozione del fotoresist con soluzioni diverse (soluzione di sviluppo dedicata e/o acetone) alla rimozione dei residui presenti sulle membrane di grafene anche a valle del patterning stesso. La rimozione dei residui tramite acido cloridrico, insieme ad una procedura di annealing a 400°C in aria per la rimozione dei residui del fotoresist polimerico che erano presenti a valle dell’etching in ossigeno, ha permesso di ottenere un patterning del grafene ben definito su scala micrometrica e una ridottissima presenza di residui. Le procedure ottimizzate di trasferimento e di patterning sono il principale avanzamento rispetto allo stato dell’arte. Le metodiche messe a punto in questo lavoro, consentiranno di integrare il grafene direttamente nel processo di micro-fabbricazione di dispositivi per misure termiche e termoelettriche, per i quali quali sono in realizzazione le maschere di processo che rappresentando la naturale conclusione del lavoro di tesi.
Resumo:
Nell'ultimo decennio sono stati sviluppati numerosi materiali π-coniugati contenenti unità tiofeniche per applicazioni in dispositivi organici a film sottile. Nel campo delle celle solari, la possibilità di creare dispositivi basati sull’utilizzo di materiali organici, rispetto ai dispositivi attualmente in commercio a base di silicio, ha suscitato grande interesse soprattutto per la possibilità di realizzare dispositivi su larga area con basso costo di produzione e su substrati flessibili. Gli oligo- e i politiofeni sono eccellenti candidati grazie alle ottime proprietà di trasporto di carica e alle caratteristiche di assorbimento di luce. In celle solari di tipo Bulk-Heterojunction (BHJ), ad esempio, il poli(3-esiltiofene) è uno tra i materiali più studiati. Ad oggi, con il P3HT sono state raggiunte efficienze certificate superiori all’8%, variando sia parametri dipendenti dalla struttura molecolare, come ad esempio il peso molecolare, la regioregolarità delle catene alchiliche, il grado di polidispersità, il grado di polimerizzazione, sia parametri da cui dipende l’organizzazione della blend donatore-accettore. Per superare l’efficienza di conversione ottenuta con i polimeri classici come il P3HT è necessario progettare e sintetizzare materiali con precise caratteristiche: basso energy gap per aumentare l’assorbimento di luce, elevata mobilità di carica per avere una rapida estrazione delle cariche, posizione ottimale degli orbitali di frontiera per garantire una efficiente dissociazione dell’eccitone ed infine buona solubilità per migliorare la processabilità. Il presente lavoro di tesi si è articolato nei seguenti punti: sintesi di oligo- e politiofeni tioalchil sostituiti con inserzione di unità benzotiadiazolo per massimizzare l’assorbimento ed abbassare il gap energetico; studio dell’effetto della ramificazione del gruppo tioalchilico sull’organizzazione supramolecolare allo stato solido e successiva ottimizzazione della morfologia del film solido variando metodi di deposizione e solventi; applicazione degli oligomeri e dei polimeri sintetizzati come materiali donatori in celle fotovoltaiche di tipo Bulk-Heterojunction in presenza di fenil-C61-butirrato di metile (PCBM) come materiale accettore.