990 resultados para indirizzo :: 790 :: Curriculum D: Fisica della terra


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il vento di barriera (VB) è un fenomeno meteorologico a mesoscala che interessa il flusso nei bassi strati atmosferici ed è dovuto all'interazione con l'orografia. Se il numero di Froude upstream è sufficientemente piccolo si genera una deviazione orizzontale del flusso incidente. Si può raggiungere uno stato quasi-stazionario, nel quale un intenso vento soffia parallelo all'orografia nei bassi strati. Nel presente lavoro si è innanzitutto sviluppata una climatologia degli eventi di VB nella regione italiana su un periodo biennale. Gli eventi sono stati classificati per la velocità del flusso incidente e la velocità e direzione del VB a 950 hPa, e per il numero di Froude upstream. Si è poi studiata la distribuzione degli eventi rispetto al numero di Froude. La climatologia è risultata in buon accordo con la teoria idealizzata dei flussi sopra l'orografia. Tre casi di studio sono stati successivamente simulati utilizzando i modelli BOLAM e MOLOCH dell'istituto CNR-ISAC di Bologna. Per ciascun evento sono stati calcolati il numero di Froude upstream e i parametri principali, quali velocità, estensione, temperatura ecc. Per uno dei casi, riguardante le Alpi orientali, le simulazioni sono state confrontate con dati osservati di vento, pressione, temperatura e precipitazione. Sono poi stati condotti dei sensitivity tests con orografia diminuita su ognuno degli eventi. È stata così verificata l'importanza dell'effetto orografico e l'intensità del fenomeno del VB è stata associata al numero di Froude. Un indice, denominato Barrier Wind Index (BWI) è stato ideato a tale scopo. Le simulazioni hanno mostrato un buon accordo con la teoria, indicandone i limiti di applicabilità all'atmosfera reale. In particolare, il Barrier Wind Index tende ad aumentare linearmente al diminuire del numero di Froude. Le simulazioni hanno evidenziato l'elevata influenza del VB sulla circolazione atmosferica a mesoscala, sulla distribuzione e intensità della precipitazione e sull'avvezione di temperatura e umidità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ruolo della fisica della matrice extracellulare nello sviluppo del tumore

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Global Positioning System (GPS) e l’Interferometric Synthetic Aperture Radar (InSAR) sono due tecniche osservative di grande importanza che utilizzano segnali nel campo delle microonde. Questa tesi intende contribuire a sviluppare una base di confronto tra i risultati derivati da queste due tecniche osservative. Una parte del lavoro riguarda uno studio delle deformazioni del suolo, in particolare, la stima dei movimenti verticali e di quelli che riguardano la componente Est della posizione delle stazioni. Un secondo ambito di ricerca è invece focalizzato alla determinazione del ritardo introdotto, nella propagazione dei segnali GPS e SAR, dal loro passaggio in atmosfera. In particolare, si è studiato l’effetto della componente umida della troposfera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto di questa tesi è un fenomeno didattico osservato in due valutazioni standardizzate nazionali INVALSI, legato all’atteggiamento degli studenti mentre svolgono task di matematica. L’effetto, che abbiamo denotato effetto “età della Terra”, è stato interpretato in questa ricerca attraverso l’interazione e il confronto di diversi costrutti teorici che spiegano come questo effetto, che può essere considerato come una tipica situazione di contratto didattico, è generato dalla relazione studente-insegnante ma può diventare più strettamente legato al rapporto che hanno gli studenti con la matematica. Inizialmente abbiamo condotto uno studio dei risultati statistici delle valutazioni standardizzate nazionali (Rash Analysis). Il primo step della sperimentazione è consistito nella preparazione, validazione e somministrazione di 612 questionari a studenti di diversi livelli scolastici e basandoci sui risultati dei questionari abbiamo condotto interviste di gruppo. L’analisi quantitativa e qualitativa dei risultati ha confermato la presenza dell’effetto “età della Terra” e ha mostrato che questo effetto è indipendente dal livello scolastico e dall’età degli studenti, dal contenuto matematico e dal contesto dei task proposti. La seconda parte della ricerca è stata volta ad indagare la cause di questo effetto. Abbiamo infatti individuato un principio regolativo che condizione l’azione degli studenti mentre fanno attività matematica e abbiamo condotto molte interviste individuali per indagarlo. Il comportamento degli studenti intervistati è stato così studiato e classificato con i costrutti del quadro teorico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Alpha Magnetic Spectrometer (AMS-02) é un rivelatore per raggi cosmici (CR) progettato e costruito da una collaborazione internazionale di 56 istituti e 16 paesi ed installato il 19 Maggio del 2011 sulla Stazione Spaziale Internazionale (ISS). Orbitando intorno alla Terra, AMS-02 sará in grado di studiare con un livello di accuratezza mai raggiunto prima la composizione dei raggi cosmici, esplorando nuove frontiere nella fisica delle particelle, ricercando antimateria primordiale ed evidenze indirette di materia oscura. Durante il mio lavoro di tesi, ho utilizzato il software GALPROP per studiare la propagazione dei CR nella nostra Galassia attraverso il mezzo interstellare (ISM), cercando di individuare un set di parametri in grado di fornire un buon accordo con i dati preliminari di AMS-02. In particolare, mi sono dedicata all’analisi del processo di propagazione di nuclei, studiando i loro flussi e i relativi rapporti. Il set di propagazione ottenuto dall’analisi é stato poi utilizzato per studiare ipotetici flussi da materia oscura e le possibili implicazioni per la ricerca indiretta attraverso AMS-02.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo di polimeri organici coniugati in dispositivi elettronici per applicazioni biologiche, grazie alle loro proprietà meccaniche ed elettriche, insieme alla loro biocompatibilità, è un campo di ricerca relativamente nuovo e in rapida espansione. In questo lavoro di tesi si utilizza la tecnica del Voltage Clamp in configurazione whole cell per caratterizzare le proprietà elettrofisiologiche della linea cellulare di glioblastoma multiforme (T98G) e per registrare le correnti ioniche di cellule adese su una matrice polimerica biocompatibile di poli(etilenediossitiofene)-poli(stirenesulfonato) (PEDOT:PSS). La tecnica consiste nel bloccare il potenziale di membrana al valore desiderato, secondo un preciso protocollo di stimolazione, misurando la corrente necessaria per mantenere costante il potenziale presente tra le due superfici della membrana cellulare. Nella prima parte del lavoro le cellule sono state perfuse con farmaci inibitori dei canali potassio, prima con il bloccante non specifico tetraetilammonio (TEA), e poi selettivamente tramite bloccanti specifici come iberiotossina e dendrotossina. Il 44% circa delle cellule ha evidenziato una significativa corrente residua riconducibile all'attività dei canali ionici voltaggio-dipendenti Kv1.2. Al contrario nelle cellule restanti questi canali non sono espressi. Successivamente, sempre utilizzando le T98G, si è analizzato come lo stato di ossido-riduzione del polimero coniugato PEDOT:PSS possa influenzare le correnti dei canali ionici di membrana; è emerso che il substrato di PEDOT:PSS ridotto provoca una diminuzione significativa della corrente registrata rispetto al substrato di controllo (petri in polistirene). Questi risultati sono stati confrontati con le curve di proliferazione delle cellule T98G coltivate per 24h, 48h e 72h sui diversi substrati considerati, evidenziando interessanti correlazioni nel caso del substrato PEDOT:PSS ridotto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si inserisce nell'ambito delle analisi statistiche e dei metodi stocastici applicati all'analisi delle sequenze di DNA. Nello specifico il nostro lavoro è incentrato sullo studio del dinucleotide CG (CpG) all'interno del genoma umano, che si trova raggruppato in zone specifiche denominate CpG islands. Queste sono legate alla metilazione del DNA, un processo che riveste un ruolo fondamentale nella regolazione genica. La prima parte dello studio è dedicata a una caratterizzazione globale del contenuto e della distribuzione dei 16 diversi dinucleotidi all'interno del genoma umano: in particolare viene studiata la distribuzione delle distanze tra occorrenze successive dello stesso dinucleotide lungo la sequenza. I risultati vengono confrontati con diversi modelli nulli: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi) e la distribuzione geometrica per le distanze. Da questa analisi le proprietà caratteristiche del dinucleotide CpG emergono chiaramente, sia dal confronto con gli altri dinucleotidi che con i modelli random. A seguito di questa prima parte abbiamo scelto di concentrare le successive analisi in zone di interesse biologico, studiando l’abbondanza e la distribuzione di CpG al loro interno (CpG islands, promotori e Lamina Associated Domains). Nei primi due casi si osserva un forte arricchimento nel contenuto di CpG, e la distribuzione delle distanze è spostata verso valori inferiori, indicando che questo dinucleotide è clusterizzato. All’interno delle LADs si trovano mediamente meno CpG e questi presentano distanze maggiori. Infine abbiamo adottato una rappresentazione a random walk del DNA, costruita in base al posizionamento dei dinucleotidi: il walk ottenuto presenta caratteristiche drasticamente diverse all’interno e all’esterno di zone annotate come CpG island. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per migliorare l’individuazione di queste aree di interesse nel genoma umano e di altri organismi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis presents a CMOS Amplifier with High Common Mode rejection designed in UMC 130nm technology. The goal is to achieve a high amplification factor for a wide range of biological signals (with frequencies in the range of 10Hz-1KHz) and to reject the common-mode noise signal. It is here presented a Data Acquisition System, composed of a Delta-Sigma-like Modulator and an antenna, that is the core of a portable low-complexity radio system; the amplifier is designed in order to interface the data acquisition system with a sensor that acquires the electrical signal. The Modulator asynchronously acquires and samples human muscle activity, by sending a Quasi-Digital pattern that encodes the acquired signal. There is only a minor loss of information translating the muscle activity using this pattern, compared to an encoding technique which uses astandard digital signal via Impulse-Radio Ultra-Wide Band (IR-UWB). The biological signals, needed for Electromyographic analysis, have an amplitude of 10-100μV and need to be highly amplified and separated from the overwhelming 50mV common mode noise signal. Various tests of the firmness of the concept are presented, as well the proof that the design works even with different sensors, such as Radiation measurement for Dosimetry studies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OPERA è un esperimento installato ai Laboratori del Gran Sasso, lungo la linea del fascio di neutrini CNGS prodotto al CERN. Il suo scopo principale è osservare - per la prima volta in modo diretto - il fenomeno dell'oscillazione di neutrini muonici del CNGS, in neutrini-tau. L'esperimento è attualmente in fase di analisi dati. Accanto al canale di oscillazione dominante nu_mu--> nu_tau OPERA può studiare anche il canale nu_mu--> nu_e grazie all'ottima capacità di identificazione degli elettroni. OPERA utilizza un bersaglio attivo, finemente segmentato in moduli ("brick") costituiti da pile di fogli di emulsioni nucleare e lastre di piombo. Ogni "brick", il cui spessore è equivalente a 10 lunghezze di radiazione, è un rivelatore "stand-alone" attraverso il quale è possibile identificare e ricostruire gli sciami elettromagnetici e quindi le interazioni a corrente carica di neutrini elettronici. Il progetto di tesi si inquadra in questo contesto. Gli obiettivi specifici sono: - implementazione di una nuova procedura di trigger applicata per l'identificazione degli sciami elettromagnetici; - validazione della suddetta procedura sui dati simulati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.