1000 resultados para Oboè, Música per a -- Anàlisi i apreciació
Resumo:
Le reti di sensori non cablate producono una grande quantità di informazioni sotto forma di flusso continuo di dati, provenienti da una certa area fisica. Individualmente, ogni sensore è autonomo, dotato di batteria limitata e possiede una piccola antenna per la comunicazione; collettivamente, i sensori cooperano su un’ area più o meno vasta per far giungere i dati gene- rati ad un unità centrale. Poiché la sostituzione delle batterie è spesso un operazione troppo costosa o inattuabile, l’efficienza energetica è considerata una metrica prioritaria durante la progettazione delle reti di sensori non cablate. Si richiede non solo di ridurre le richieste energetiche di ogni singolo nodo, ma anche di massimizzare il tempo di vita dell’intera rete, considerando i costi di comunicazione tra sensori. Ciò ha portato allo studio di come rimuo- vere le inefficienze energetiche sotto ogni aspetto: dalla piattaforma hardware, al software di base, ai protocolli di comunicazione al software applicativo. Nella tesi è illustrata una tecnica per il risparmio energetico che consiste nell’applicare memorie fisiche ad alcuni nodi della rete, in modo da accumulare in esse porzioni dei dati ge- nerati; successivamente le informazioni possono essere recuperate dall’unità centrale tramite interrogazioni. Questo permette di ridurre il numero di dati trasmessi, e conseguentemente diminuire l’assorbimento energetico della rete. Scopo della presente tesi è individuare algo- ritmi per determinare la disposizione ottima delle memorie tra i nodi.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Nell’attuale contesto di aumento degli impatti antropici e di “Global Climate Change” emerge la necessità di comprenderne i possibili effetti di questi sugli ecosistemi inquadrati come fruitori di servizi e funzioni imprescindibili sui quali si basano intere tessiture economiche e sociali. Lo studio previsionale degli ecosistemi si scontra con l’elevata complessità di questi ultimi in luogo di una altrettanto elevata scarsità di osservazioni integrate. L’approccio modellistico appare il più adatto all’analisi delle dinamiche complesse degli ecosistemi ed alla contestualizzazione complessa di risultati sperimentali ed osservazioni empiriche. L’approccio riduzionista-deterministico solitamente utilizzato nell’implementazione di modelli non si è però sin qui dimostrato in grado di raggiungere i livelli di complessità più elevati all’interno della struttura eco sistemica. La componente che meglio descrive la complessità ecosistemica è quella biotica in virtù dell’elevata dipendenza dalle altre componenti e dalle loro interazioni. In questo lavoro di tesi viene proposto un approccio modellistico stocastico basato sull’utilizzo di un compilatore naive Bayes operante in ambiente fuzzy. L’utilizzo congiunto di logica fuzzy e approccio naive Bayes è utile al processa mento del livello di complessità e conseguentemente incertezza insito negli ecosistemi. I modelli generativi ottenuti, chiamati Fuzzy Bayesian Ecological Model(FBEM) appaiono in grado di modellizare gli stati eco sistemici in funzione dell’ elevato numero di interazioni che entrano in gioco nella determinazione degli stati degli ecosistemi. Modelli FBEM sono stati utilizzati per comprendere il rischio ambientale per habitat intertidale di spiagge sabbiose in caso di eventi di flooding costiero previsti nell’arco di tempo 2010-2100. L’applicazione è stata effettuata all’interno del progetto EU “Theseus” per il quale i modelli FBEM sono stati utilizzati anche per una simulazione a lungo termine e per il calcolo dei tipping point specifici dell’habitat secondo eventi di flooding di diversa intensità.
Resumo:
Le scelte di asset allocation costituiscono un problema ricorrente per ogni investitore. Quest’ultimo è continuamente impegnato a combinare diverse asset class per giungere ad un investimento coerente con le proprie preferenze. L’esigenza di supportare gli asset manager nello svolgimento delle proprie mansioni ha alimentato nel tempo una vasta letteratura che ha proposto numerose strategie e modelli di portfolio construction. Questa tesi tenta di fornire una rassegna di alcuni modelli innovativi di previsione e di alcune strategie nell’ambito dell’asset allocation tattica, per poi valutarne i risvolti pratici. In primis verificheremo la sussistenza di eventuali relazioni tra la dinamica di alcune variabili macroeconomiche ed i mercati finanziari. Lo scopo è quello di individuare un modello econometrico capace di orientare le strategie dei gestori nella costruzione dei propri portafogli di investimento. L’analisi prende in considerazione il mercato americano, durante un periodo caratterizzato da rapide trasformazioni economiche e da un’elevata volatilità dei prezzi azionari. In secondo luogo verrà esaminata la validità delle strategie di trading momentum e contrarian nei mercati futures, in particolare quelli dell’Eurozona, che ben si prestano all’implementazione delle stesse, grazie all’assenza di vincoli sulle operazioni di shorting ed ai ridotti costi di transazione. Dall’indagine emerge che entrambe le anomalie si presentano con carattere di stabilità. I rendimenti anomali permangono anche qualora vengano utilizzati i tradizionali modelli di asset pricing, quali il CAPM, il modello di Fama e French e quello di Carhart. Infine, utilizzando l’approccio EGARCH-M, verranno formulate previsioni sulla volatilità dei rendimenti dei titoli appartenenti al Dow Jones. Quest’ultime saranno poi utilizzate come input per determinare le views da inserire nel modello di Black e Litterman. I risultati ottenuti, evidenziano, per diversi valori dello scalare tau, extra rendimenti medi del new combined vector superiori al vettore degli extra rendimenti di equilibrio di mercato, seppur con livelli più elevati di rischio.
Resumo:
Sulla base delle evidenze della letteratura (Fenaux, 2009; Lyons, JCO 2009), a partire da Settembre 2004 nel Nostro Istituto sono stati trattati 57 pazienti affetti da Sindrome Mielodisplastica (MDS) mediante terapia demetilante con 5-Azacitidina. Sono stati utilizzati differenti regimi terapeutici a seconda della classe di rischio IPSS: i pazienti a rischio basso/intermedio-1 hanno ricevuto Azacitidina 75 mg/mq/die sottocute per 5 giorni/mese (schema 5) per 8 cicli; i pazienti a rischio alto/intermedio-2 hanno ricevuto Azacitidina 50 mg/mq/die sottocute per 10 giorni/mese (schema 5+2+5) o Azacitidina 75 mg/mq/die per 7 giorni/mese (schema 7) fino a perdita della risposta. Su una casistica totale di 57 pazienti (15 a rischio basso/int-1; 41 rischio alto/int-2), l’87.7% (50 pazienti) sono risultati valutabili. Tra questi le risposte osservate sono state del 68% (34 pazienti), di cui il 14% (7 pazienti) ha ottenuto una Remissione Completa (CR) ed il 54% (27 pazienti) ha ottenuto un Hematologic Improvement (HI). La valutazione della risposta è stata eseguita secondo i criteri dell’International Working Group 2006 (IWG, Cheeson 2006). Le principali tossicità osservate sono state rappresentate da reazioni cutanee locali nel sito d’iniezione, tossicità gastrointestinale (stipsi e/o diarrea), mielotossicità, neutropenia febbrile, sepsi (3 pazienti). Tra i pazienti trattati abbiamo osservato la presenza di risposta ematologica prolungata (≥ 20 mesi) in 10 pazienti (20% dei pazienti valutabili). Inoltre, grazie alla collaborazione con il Dipartimento di Anatomia Umana dell’Università di Bologna (Prof. L. Cocco, Dott.ssa M.Y. Follo), tutti i pazienti trattati sono stati valutati per i livelli di espressione genica e metilazione del gene della fosfolipasi PI-PLC-beta1. I dati biologici così ottenuti sono stati correlati con quelli clinici, evidenziando la presenza di una correlazione tra i livelli di espressione genica e mutilazione della PI-PLC-beta1 e la risposta alla terapia demetilante con 5-Azacitidina.
Resumo:
La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.
Resumo:
Il documento di tesi è composto da tre capitoli, che in successione analizzano gli aspetti teorici del progetto fino ad arrivare all’implementazione vera e propria dell’applicazione. Nel primo capitolo vediamo definito il tema dell’accessibilità accennando alle normative presenti in Italia e all’estero sull’argomento. Successivamente viene spiegato il concetto di Smart City e le tecniche che vengono utilizzate allo scopo di migliorare la qualità di vita nelle città. Vengono introdotti i concetti di crowdsourcing e participatory sensing, ideologie alla base delle Smart City. Al termine del capitolo viene introdotto uno studio sul grado di accessibilità degli smartphone presenti oggi sul mercato, analizzando anche le tecnologie assistive disponibili per questi dispositivi. Nel secondo capitolo si descrivono le tecnologie e i servizi utilizzati durante la creazione del progetto. In particolare viene presentato Android ed il suo funzionamento, essendo quest’ultimo il sistema operativo per cui è stata sviluppata l’applicazione. In seguito troviamo una breve analisi di tutti i servizi impiegati nel progetto: Foursquare, Fusion Table e Google Maps. Infine vengono descritte le tecnologie intermedie utilizzate per far comunicare fra loro gli strumenti spiegati in precedenza. Nel terzo capitolo viene presentata in modo dettagliato l’implementazione del progetto. Inizialmente vengono definite le classi principali create per progettare le funzionalità di base del software e per interagire con i servizi scelti. Successivamente viene descritto il funzionamento e l’aspetto dell’applicazione sviluppata insieme a degli screenshot, che permetteranno al lettore di avere un riferimento visivo di ciò che è stato esposto nel corso della tesi.
Resumo:
L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.
Resumo:
Imprese di piccole e grandi dimensioni hanno dovuto convivere con il ritmo di uscita di nuovi e più potenti modelli di PC, consolle per videogiochi, telefoni cellulari, tablet, fotocamere digitali. I cicli di vita si sono ridotti drasticamente, tanto da far sembrare un’emergenza il rilascio di un nuovo prodotto quasi ogni anno. Le aziende, se ancora non lo hanno fatto, sono chiamate ad affrontare una transizione interna per aggiornare le politiche aziendali in modo da stare al passo con il progresso tecnologico. Se un tempo le regole interne vietavano o scoraggiavano l’utilizzo di dispositivi personali nell’ambiente di lavoro, nell’era moderna sono costrette ad accettarlo se non addirittura ad incoraggiarlo ed il fenomeno che mi accingerò ad analizzare in questo elaborato, denominato Bring Your Own Device (BYOD), punta proprio all’esplorazione degli sforzi progettuali che sono richiesti ad una grande azienda multinazionale per poter recepire i trend informatici. Con più di cinque miliardi di dispositivi mobili in tutto il mondo – e solo 2 miliardi di computer – il passaggio al ‘mobile’ come forma principale di collegamento alle reti aziendali procede con sempre maggiore rapidità. Negli anni recenti si è potuto assistere all’evoluzione del panorama di dispositivi portatili che ha permesso ad un pubblico di users sempre più vasto di potersi permettere l’acquisto di dispositivi di ultima generazione a prezzi non proibitivi. I fornitori di tecnologie hanno confezionato prodotti sempre più pensati per un uso privato, fornendo un’ampia scelta di soluzioni non solo a livello enterprise, come accadeva agli albori del boom tecnologico, ma maggiormente rivolte al singolo consumatore. Guardando ai trend sviluppatisi negli anni recenti, è possibile riconoscere una scia di segnali che preannunciavano quanto sta avvenendo adesso con il BYOD.
Resumo:
Questo elaborato presenta un metodo per lo sviluppo di correlazioni lineari con lo scopo di determinare le proprietà meccaniche di un acciaio laminato e zincato utilizzando un sensore che percepisce la magnetizzazione residua del materiale. Vengono utilizzati metodi statistici di analisi della varianza per lo studio delle funzioni di regressione lineari. Lo studio effettuato è stato sviluppato per la lavorazione di zincatura di coils presso Marcegaglia spa, stabilimento di Ravenna. È risultato evidente che la sola misurazione della magnetizzazione residua non fosse sufficiente per la determinazione delle proprietà meccaniche, a tale proposito sono stati sviluppati dei modelli di calcolo con funzioni multivariabili e, attraverso risolutori che minimizzano la differenza quadratica dell'errore, si sono determinati i coefficienti di regressione. Una delle principali problematiche riscontrate per la definizione delle correlazioni è stato il reperimento dei dati necessari per considerare affidabili i risultati ottenuti. Si sono infatti analizzate solamente le famiglie di materiale più numerose. Sono stati sviluppati tre modelli di calcolo differenti per parametri di processo di produzione utilizzati per la definizione delle correlazioni. Sono stati confrontati gli errori percentuali medi commessi dalle funzioni, gli indici di regressione che indicano la qualità della correlazione e i valori di significatività di ogni singolo coefficiente di regressione delle variabili. Si è dimostrato che la magnetizzazione residua influisce notevolmente, così come i parametri dei processo di ricottura del materiale, come le temperature in forno, lo spessore e le velocità. Questo modello di calcolo è stato utilizzato direttamente in linea per lo sviluppo di un ciclo ottimale per la produzione di un nuovo materiale bifasico. Utilizzando il modello per la predizione delle proprietà meccaniche si è concluso che per limiti impiantistici la chimica del materiale utilizzata non fosse idonea. Si è perciò utilizzato un acciaio con percentuali di carbonio, manganese e cromo differenti. In conclusione del progetto si sono formulate delle possibili alternative di funzioni di regressione che utilizzano il valore della durezza piuttosto che il valore di magnetizzazione residua. Si è appurato che l'utilizzo di un durometro, anziché il sensore studiato, potrebbe risultare una valida alternativa al sensore studiato.
Resumo:
Il lavoro proposto consiste nella progettazione di una doppia pedana dinamometrica per lo studio del cammino a regime. Il progetto si pone, inoltre, l’obiettivo di progettare la pedana senza l’ausilio di celle di carico commerciali. Gli aspetti analizzati sono sia riguardanti i materiali sia la fisica necessaria per l’acquisizione di segnali di deformazione. Per quanto riguarda i materiali si è deciso di utilizzare per il TOP un pannello sandwich honeycomb in alluminio e per i POST cilindri cavi anch’essi in alluminio. Per l’acquisizione si è optato per estensimetri resistivi. Una volta ottenuto, dalla teoria, gli elementi base del progetto si è passati ad uno studio agli elementi finiti, tramite l’utilizzo di COMSOL Multiphysics, passando prima per l’omogeneizzazione del core alveolare. Si è fatta un’analisi modale per la determinazione della frequenza di risonanza ed una statica per risolvere il problema elastico. Infine si è ottenuta la matrice di calibrazione del sistema la quale dà risultati ragionevolmente positivi.
Resumo:
Un problema classico in matematica, che presenta numerose applicazioni anche al di fuori di tale disciplina, è la ricerca delle radici di un polinomio. Per quanto riguarda i polinomi di grado minore o uguale a 4 ci sono delle formule per determinare le radici a partire dai coefficienti, mentre per il generico polinomio di grado maggiore o uguale a 5 formule simili non esistono. È possibile, però, determinare in modo approssimato le radici di un polinomio, o stimare il numero di radici reali di un polinomio reale in un dato intervallo, o ancora localizzare nel piano complesso gli zeri di un polinomio a coefficienti complessi.
Resumo:
La prima parte dello studio riguarda la descrizione dell’origine e delle caratteristiche che differenziano la periodizzazione tradizionale e quella a blocchi per l’allenamento della forza. L’obiettivo della seconda parte del lavoro è stato quello di confrontare gli adattamento ormonali e prestativi ad un programma di allenamento della forza periodizzato secondo il modello tradizionale o secondo quello a blocchi in un campione di atleti di forza. Venticinque atleti maschi sono stati assegnati con procedura randomizzata al gruppo con programmazione tradizionale (TP) o a quello a blocchi (BP). Prelievi di saliva sono stati effettuati prima e dopo 6 diverse sedute di allenamento durante il programma al fine di rilevare i livelli di testosterone (T) e cortisolo (C). Le valutazioni dei parametri antropometrici e prestativi sono state effettuate prima e dopo le 15 settimane di allenamento previste. In nessuno dei due gruppi vi sono state variazioni significative nei livelli ormonali. I risultati indicano che il gruppo BP ha ottenuto incrementi superiori a quello TP riguardo alla forza massima (p = 0,040) ed alla potenza (p = 0,035) espressa alla panca piana. Nella terza parte dello studio, la periodizzazione tradizionale e quella a blocchi sono state confrontate riguardo agli effetti sulla forza massima e sull’ipertrofia in donne allenate di livello amatoriale. Diciassette donne hanno partecipato all’esperimento allenandosi 3 volte a settimana per 10 settimane. I risultati dimostrano che entrambe le periodizzazioni hanno portato a miglioramenti significativi di forza e potenza; il gruppo TP ha tuttavia ottenuto incrementi superiori di forza massima (p = 0,039) e ipertrofia degli arti inferiori (p = 0,004). La periodizzazione tradizionale quindi si è dimostrata più efficace per aumentare la forza massima e la sezione muscolare della coscia in partecipanti di genere femminile. I risultati contrastanti nei due generi potrebbero essere legati a rapporti diversi fra processi anabolici e catabolici.
Resumo:
Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.
Resumo:
Questa tesi ha come obiettivo quello di misurare la dipendenza spettrale di alcune proprietà ottiche, come trasmittanza e riflettanza, al fine di ricavare l’energy gap di film sottili costituiti da nanocrystalline silicon oxynitride (nc-SiOxNy) per applicazioni in celle solari HIT (Heterojunction Intrinsic Thin layer). Questi campioni sono stati depositati presso l’Università di Konstanz (Germania) tramite tecnica PECVD (Plasma-Enhanced Chemical Vapor Deposition). Questo materiale risulta ancora poco conosciuto per quanto riguarda le proprietà optoelettroniche e potrebbe presentare una valida alternativa a silicio amorfo (a-Si) e ossido di silicio idrogenato amorfo (a-SiOx:H) che sono attualmente utilizzati in questo campo. Le misure sono state effettuate presso i laboratori del Dipartimento di Fisica e Astronomia, settore di Fisica della Materia, dell’Università di Bologna. I risultati ottenuti mostrano che i campioni che non hanno subito alcun trattamento termico (annealing) presentano un energy gap che cresce linearmente rispetto alla diluizione di protossido di azoto in percentuale. Nei campioni analizzati sottoposto ad annealing a 800°C si è osservato un aumento dell’Eg dopo il trattamento. Un risultato ottimale consiste in un gap energetico maggiore di quello del silicio amorfo (a-Si) e del silicio amorfo idrogenato (a-Si:H), attualmente utilizzati in questa tipologia di celle, per evitare che questo layer assorba la luce solare che deve invece essere trasmessa al silicio sottostante. Per questo motivo i valori ottenuti risultano molto promettenti per future applicazioni fotovoltaiche.