999 resultados para sostenibilità,sostenibilità digitale,greenIoT,strumenti interattivi multimediali


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo di questa tesi è cercare di mostrare come il mobile può diventare molto utile per le aziende sia a livello di guadagno sia a livello di comunicazione aziendale con i propri clienti. Il tema principale sviluppato nell'elaborato riguarda il Mobile Marketing e gli strumenti più proficui utilizzati da questa nuova tecnica di marketing, in particolar modo le App. In primo luogo viene trattato il tema del brand: importante mezzo comunicativo che dal primo momento intacca il pensiero del cliente e ne veicola le scelte di acquisto. Frutto di un'analisi ben più specifica è l'argomento del mobile marketing, le strategie migliori da adoperare per sfruttare al meglio i device portatili, i vantaggi maggiori che riceveranno le aziende che lo adotteranno e un piccolo accenno sui principali strumenti del mobile. Infine di svilupperà maggiormente l'argomento delle Applicazioni mobili e di quelle app brandizzate che hanno riscontrato maggior successo tra gli utenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le vene giugulari interne sembrano essere la via principale attraverso cui il sangue defluisce dal cervello verso il cuore, quando siamo in posizione supina. Nel 2008 il professor Paolo Zamboni ha scoperto che una diminuzione dell'attività giugulare può portare allo sviluppo di una condizione emodinamica chiamata CCSVI. Questa può causare ipossia, ritardi nella perfusione cerebrale e riduzione del drenaggio dei cataboliti, oltre ad un'attivazione infiammatoria delle piccole vene e dei tessuti vicini. Questa condizione è stata da subito associata alla sclerosi multipla e su questo argomento si sono dibattuti molti gruppi di ricerca. Inoltre, altre patologie sembrano essere associate alla CCSVI, come il morbo di Parkinson, l'Alzheimer e la sindrome di Meniere. Proprio quest'ultima è uno degli argomenti che attualmente interessa di più il gruppo di lavoro in cui mi sono inserita. Questa patologia comporta problemi uditivi, come sordità e tinnito, vertigini e nausea. Il gruppo Vascolar Disease Center (VDC) dell'Università di Ferrara ha previsto per l'anno 2015 uno studio multicentrico, in cui si cercherà di verificare la correlazione tra CCSVI e sindrome di Meniere. La mia tesi fa parte di un studio preliminare a quello multicentrico. All'inizio del lavoro mi sono dedicata ad un'analisi critica di un modello emodinamico per la quantificazione dei flussi sanguigni: il modello BMC, pubblicato nel 2013 dal gruppo VDC, effettuando in parallelo una ricerca bibliografica sullo stato dell'arte in materia. In seguito ho cominciato a studiare off-line diversi studi patologici e fisiologici, in modo da prendere confidenza con gli strumenti e con le metodologie da utilizzare. Sono stata poi coinvolta dal gruppo VDC per partecipare attivamente al miglioramento del protocollo legato al modello BMC. Infine ho analizzato, con due metodologie differenti, 35 studi effettuati su pazienti otorinolaringoiatrici. Con i risultati ottenuti ho potuto effettuare diverse analisi statistiche al fine di verificare l'equivalenza delle due metodologie. L'obiettivo ultimo era quello di stabilire quale delle due fosse la tecnica migliore da utilizzare, successivamente, nello studio multicentrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo progetto ha lo scopo di creare un sistema di supporto per lo staff di grandi tornei internazionali di giochi da tavolo o di carte. Questi eventi sono solitamente gestiti da più di 40 persone e occupano grandi padiglioni fieristici. Vedremo come sia possibile, con l'ausilio di smartphone, facilitare le normali operazioni logistiche e permettere di risparmiare tempo e fatica. Analizzeremo le scelte progettuali e gli strumenti adottati per lo sviluppo di questo sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rivelazione dei neutroni gioca un ruolo fondamentale sia nel campo della fisica nucleare di base che in diversi ambiti applicativi quali la produzione di energia in reattori a fissione, la sicurezza nazionale alle frontiere, la terapia e la diagnostica mediche. Negli anni passati la rivelazione di neutroni di bassa energia (nell'intervallo termico) si è basata principalmente sull'utilizzo di contatori proporzionali a $^3$He. Il grosso vantaggio di questi strumenti è la loro quasi totale inefficienza nella rivelazione di radiazione elettromagnetica, consentendo una caratterizzazione pulita dei flussi neutronici di bassa energia, anche quando, come spesso succede, sono accompagnati da un intenso fondo di raggi X e raggi gamma. La scarsa disponibilità di $^3$He ed il conseguente incremento del suo costo hanno stimolato, negli ultimi anni, numerosi programmi di sviluppo di nuovi rivelatori per neutroni termici in grado di rimpiazzare i troppo costosi contatori a $^3$He. In questo contesto si sono sviluppati da una parte il progetto ORIONE/HYDE dell'Istituto Nazionale di Fisica Nucleare (INFN), che punta allo sviluppo di scintillatori organici a matrice siliconica in grado di rivelare sia neutroni veloci che termici, dall'altra l'applicazione di tali sviluppi ad attività connesse con il Progetto SPES nell'ambito del PRIN intitolato Sviluppo di Rivelatori e tecniche d'analisi per la sperimentazione con i fasci radioattivi dei Laboratori Nazionali dell'INFN, con particolare riferimento a SPES. All'interno di una matrice scintillante organica (ricca quindi di nuclei di Idrogeno e Carbonio) opportunamente drogata per favorire il processo di scintillazione, viene disperso un ulteriore dopante ad alta sezione d'urto di cattura neutronica (tipicamente $^{10}$B o $^6$Li). Questo scintillatore risulta sensibile alla radiazione neutronica veloce che viene rivelata tramite i processi di urto elastico ed il successivo rinculo dei nuclei che causa l'emissione di luce di scintillazione. Inoltre grazie alle grandi sezioni d'urto dei processi di cattura neutronica da parte del materiale dopante e la successiva emissione di particelle cariche anche la sensibilità ai neutroni di bassa energia (lenti e termici) viene garantita. La matrice utilizzata (polifenil-dimetil silossano) ha ottime proprietà meccaniche e, a differenza di altri materiali utilizzati per la realizzazione di scintillatori per neutroni, non risulta tossica o dannosa per l'ambiente. Inoltre il costo del materiale utilizzato è notevolmente competitivo rispetto alle alternative attualmente in commercio. In questo lavoro di tesi verranno caratterizzati alcuni di questi nuovi scintillatori drogati con $^6$Li. Verrà analizzata la loro risposta in termini di resa di luce quando esposti a flussi di particelle cariche e raggi gamma e a flussi neutronici di bassa energia. I risultati verranno paragonati a quelli ottenuti con uno scintillatore commerciale standard a matrice vetrosa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato tratta dell'importanza dell'analisi testuale tramite strumenti informatici. Presenta la tecnica più utilizzata per questo tipo di analisi il: Topic Modeling. Vengono indicati alcuni degli algoritmi più sfruttati e si descrivono gli obiettivi principali. Inoltre introduce il Web Mining per l’estrazione di informazioni presenti nel web, specificando una tecnica particolare chiamata Web Scraping. Nell'ultima sezione dell’elaborato viene descritto un caso di studio. L’argomento dello studio è la Privatizzazione. Viene suddiviso in tre fasi, la primi riguarda la ricerca dei documenti e articoli da analizzare del quotidiano La Repubblica, nella seconda parte la raccolta di documenti viene analizzata attraverso l’uso del software MALLET e come ultimo passo vengono analizzati i topic, prodotti dal programma, a cui vengono assegnate delle etichette per identificare i sotto-argomenti presenti nei documenti della raccolta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diffusione dei servizi cloud ha spinto anche il mondo degli IDE verso questa direzione. Recentemente si sta assistendo allo spostamento degli IDE da ambienti desktop ad ambienti Web. Questo è determinante per quanto riguarda gli aspetti legati alla collaborazione perchè permette di sfruttare tutti i vantaggi del cloud per dotare questi sistemi di chat, integrazione con i social network, strumenti di editing condiviso e molte altre funzionalità collaborative. Questi IDE sono detti browser-based in quanto i servizi che mettono a disposizione sono accessibili via Web tramite un browser. Ne esistono di diversi tipi e con caratteristiche molto diverse tra di loro. Alcuni sono semplici piattaforme sulle quali è possibile effettuare test di codice o utilizzare tutorial forniti per imparare nuovi linguaggi di programmazione; altri invece sono ambienti di sviluppo completi dotati delle più comuni funzionalità presenti in un IDE desktop, oltre a quelle specifiche legate al Web. Dallo studio di questi ambienti di sviluppo di nuova generazione è emerso che sono pochi quelli che dispongono di un sistema di collaborazione completo e che non tutti sfruttano le nuove tecnologie che il Web mette a disposizione. Per esempio, alcuni sono dotati di editor collaborativi, ma non offrono un servizio di chat ai collaboratori; altri mettono a disposizione una chat e il supporto per la scrittura simultanea di codice, ma non sono dotati di sistemi per la condivisione del display. Dopo l'analisi dei pregi e dei difetti della collaborazione fornita dagli strumenti presi in considerazione ho deciso di realizzare delle funzionalità collaborative inserendomi nel contesto di un IDE browser-based chiamato InDe RT sviluppato dall'azienda Pro Gamma SpA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La riabilitazione cognitiva si occupa di rimediare o alleviare i deficit cognitivi risultanti da traumi dovuti a lesioni cerebrali, come quelli indotti dalla sclerosi multipla. L'obiettivo è proporre un sistema per fornire un supporto alla riabilitazione individuale e di gruppo della sclerosi multipla, mediante un meccanismo di avanzamento automatico di difficoltà degli esercizi di riabilitazione, e strumenti di controllo dinamico delle sessioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo studio concerne uno studio di fattibilità per l'applicazione dei "positive displacement motors" in ambienti ambienti fortemente critici, soggetti ad alta pressione e alta temperatura. Tali motori sono utilizzati nell'industria Oil & Gas per la perforazione di pozzi petroliferi. L’analisi è stata portata a termine attraverso definizione dell’intervallo di temperatura per cui le performance degli strumenti in commercio presenta il maggior numero di failures, compreso tra i 175°C e i 225°C , e per il quale si vuole riuscire a limitare i rischi connessi e le criticità associate, garantendo così il raggiungimento dei target con un maggior grado di affidabilità e disponibilità del PDM utilizzato. Analizzando le sollecitazioni agenti sul motore durante le fasi di utilizzo, è stato possibile rilevare le principali cause di rottura e malfunzionamento che, nella maggior parte dei casi, possono essere attribuite al rigonfiamento e alla degradazione del materiale elastomerico che costituisce lo statore della power section. Investigando in merito alle differenze e alle proprietà di resistenza di numerosi materiali elastomerici a diversi range di temperatura, sono stati evidenziati dei margini di ottimizzazione in particolare relativi alla potenziale riduzione e totale sostituzione della superficie elastomerica con materiale metallico. Ciò ha fatto si che fosse necessario un approfondimento sulle caratteristiche degli acciai e delle leghe metalliche, in termini di resistenza a corrosione, costo del materiale, resistenza meccanica e della capacità di mantenere elevate proprietà meccaniche con l’aumento della temperatura, al fine di individuare i migliori “candidati” per sostituire interamente il materiale elastomerico dello statore in materiale metallico e risolvere così il problema dell’applicazione dei PDM in ambienti HT-HP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è imposto il concetto di Ubiquitous Computing, ovvero la possibilità di accedere al web e di usare applicazioni per divertimento o lavoro in qualsiasi momento e in qualsiasi luogo. Questo fenomeno sta cambiando notevolmente le abitudini delle persone e ciò è testimoniato anche dal fatto che il mercato mobile è in forte ascesa: da fine 2014 sono 45 milioni gli smartphone e 12 milioni i tablet in circolazione in Italia. Sembra quasi impossibile, dunque, rinunciare al mobile, soprattutto per le aziende: il nuovo modo di comunicare ha reso necessaria l’introduzione del Mobile Marketing e per raggiungere i propri clienti ora uno degli strumenti più efficaci e diretti sono le applicazioni. Esse si definiscono native se si pongono come traguardo un determinato smartphone e possono funzionare solo per quel sistema operativo. Infatti un’app costruita, per esempio, per Android non può funzionare su dispositivi Apple o Windows Phone a meno che non si ricorra al processo di porting. Ultimamente però è richiesto un numero sempre maggiore di app per piattaforma e i dispositivi presenti attualmente sul mercato presentano differenze tra le CPU, le interfacce (Application Programming Interface), i sistemi operativi, l’hardware, etc. Nasce quindi la necessità di creare applicazioni che possano funzionare su più sistemi operativi, ovvero le applicazioni platform-independent. Per facilitare e supportare questo genere di lavoro sono stati definiti nuovi ambienti di sviluppo tra i quali Sencha Touch e Apache Cordova. Il risultato finale dello sviluppo di un’app attraverso questi framework è proprio quello di ottenere un oggetto che possa essere eseguito su qualsiasi dispositivo. Naturalmente la resa non sarà la stessa di un’app nativa, la quale ha libero accesso a tutte le funzionalità del dispositivo (rubrica, messaggi, notifiche, geolocalizzazione, fotocamera, accelerometro, etc.), però con questa nuova app vi è la garanzia di un costo di sviluppo minore e di una richiesta considerevole sul mercato. L’obiettivo della tesi è quello di analizzare questo scenario attraverso un caso di studio proveniente da una realtà aziendale che presenta proprio la necessità di sviluppare un’applicazione per più piattaforme. Nella prima parte della tesi viene affrontata la tematica del mobile computing e quella del dualismo tra la programmazione nativa e le web app: verranno analizzate le caratteristiche delle due diverse tipologie cercando di capire quale delle due risulti essere la migliore. Nella seconda parte sarà data luce a uno dei più importanti framework per la costruzione di app multi-piattaforma: Sencha Touch. Ne verranno analizzate le caratteristiche, soffermandosi in particolare sul pattern MVC e si potrà vedere un confronto con altri framework. Nella terza parte si tratterà il caso di studio, un app mobile per Retail basata su Sencha Touch e Apache Cordova. Nella parte finale si troveranno alcune riflessioni e conclusioni sul mobile platform-independent e sui vantaggi e gli svantaggi dell’utilizzo di JavaScript per sviluppare app.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il campo della Bioelettronica si è sviluppato a partire dal 18 secolo con l’ esperimento di Luigi Galvani che, applicando uno stimolo elettrico ai muscoli di una rana dissezionata, ne osservò il movimento. Da questo esperimento si è aperta la strada che ha portato ad oggi ad un grande sviluppo tecnologico nella realizzazione di dispositivi elettronici che permettono di offrire un miglioramento generale delle condizioni di vita. Come spesso accade con le tecnologie emergenti, i materiali sono la maggiore limitazione nello sviluppo di nuove applicazioni. Questo è certamente il caso della Bioelettronica. I materiali elettronici organici, nella forma di polimeri conduttivi, hanno mostrato di poter dotare gli strumenti elettronici di grandi vantaggi rispetto a quelli tradizionali a base di silicio, in virtù delle loro proprietà meccaniche ed elettroniche, della loro biocompatibilità e dei bassi costi di produzione. E’ da questi studi che nasce più propriamente il campo della Bioelettronica Organica, che si basa sulla applicazione di semiconduttori a base di carbonio in forma di piccole molecole coniugate e di polimeri, e del loro utilizzo nei dispositivi elettronici. Con il termine di ‘Bioelettronica organica’, quindi, si descrive l’accoppiamento tra dispositivi elettronici organici e il mondo biologico, accoppiamento che si sviluppa in due direzioni: da un lato una reazione o un processo biologico può trasferire un segnale ad un dispositivo elettronico organico, dall’altro un dispositivo elettronico organico può avviare un processo biologico.