407 resultados para Rustichelli-Valori
Resumo:
L’obbiettivo di questo elaborato è descrivere l'implementazione, attraverso l’uso del programma di calcolo Matlab, di un metodo per ottenere una configurazione di un velivolo dell’aviazione generale che sia rispettosa delle specifiche di progetto e presenti un costo orario minimo. Il metodo utilizzato per progettare l’aeromobile preso come caso di studio è basato sui concetti della progettazione robusta. Con questo metodo di progettazione si cerca di rendere l’aereo il più insensibile possibile alle modifiche di alcuni dei parametri di progetto che possono variare in modo casuale; in particolare ci si è concentrati sul costo orario di una missione, andandone a calcolare la media e la sua deviazione standard. Considerando infine il rapporto segnale-rumore introdotto da Taguchi per la progettazione robusta, viene implementato un metodo di ottimizzazione basato su un algoritmo Particle Swarm Optimization (PSO), attraverso il quale si ottengono i valori più idonei dei parametri di progetto necessari per la realizzazione del futuro velivolo. In dettaglio, i parametri fissati in seguito all’applicazione dell’ottimizzatore sono l’allungamento alare, il carico alare e il rapporto potenza massima motori-peso. A conclusione del lavoro svolto, si può dire che l’ottimizzazione robusta può essere utile in tutti i casi in cui alcuni parametri di progetto non sono definiti in modo univoco, ma possono variare in un modo non prevedibile all’inizio della sviluppo del prodotto.
Resumo:
Lo scopo di questa tesi è stato quello di analizzare le caratteristiche qualitative delle carni di sovracoscia di pollo appartenenti alle principali categorie commerciali presenti sul mercato nazionale per caratterizzarne i principali parametri qualitativi. A tale scopo, sono stati campionati un totale 12 lotti di carne avicola che differivano in termini di peso alla macellazione, tipo di alimentazione e sistema di allevamento. Per ogni lotto, sono state selezionate 20 sovracosce, suddivise in 3 gruppi sperimentali (n=80/gruppo) in funzione della categoria commerciale di appartenenza e corrispondente peso di macellazione: pollo medio convenzionale (PMC) 3,5-3,8 kg, pollo pesante convenzionale (PPC) 2,5-2,8 kg e pollo leggero allevato all’aperto (PLA) 1,8-2 kg. I campioni sono stati utilizzati per l’analisi del pH, del colore e dell’ossidazione lipidica e proteica, tramite la valutazione del contenuto di TBARs e carbonili, rispettivamente. Dai risultati ottenuti è possibile evidenziare come il gruppo PLA abbia fatto registrare variazioni significative in termini di colore e ossidazione lipidica rispetto agli altri gruppi sperimentali oggetto di tesi. Nel dettaglio, il gruppo PLA ha mostrato valori di b* più che raddoppiati rispetto alle altre categorie commerciali: ciò potrebbe essere un aspetto favorevole in quei mercati in cui vi è una consolidata abitudine a questa pigmentazione della carne. Inoltre, i risultati dell’analisi dei TBARs indicano un livello di ossidazione lipidica significativamente superiore nel gruppo PLA rispetto a PMC e PPC: ciò potrebbe essere correlato ad uno scadimento qualitativo della carne, specialmente quando questa viene macinata ed utilizzata nella formulazione di prodotti trasformati. Dunque, i risultati ottenuti potrebbero essere di particolare interesse per l’industria avicola, in quanto potrebbero suggerire l’idoneità della carne proveniente da una particolare categoria commerciale per il consumo fresco anziché per la trasformazione.
Resumo:
La tesi è stata finalizzata allo studio delle caratteristiche qualitative e tecnologiche delle carni di polli appartenenti alle principali categorie commerciali presenti in Italia: pollo leggero allevato all’aperto (PLA, 1,8-2 kg), medio convenzionale (PMC, 2,5-2,8 kg) e pesante convenzionale (PPC, 3,5-3,8 kg). Da un totale di 12 lotti di carne avicola, sono stati selezionati 50 muscoli Pectoralis major/lotto (n=600) e sono suddivisi in 3 gruppi sperimentali corrispondenti alle categorie commerciali. Sul totale dei campioni è stata valutata l’incidenza delle principali anomalie della carne avicola: 25 petti/lotto sono stati utilizzati per la misurazione del pH, colore, drip e cooking loss e sforzo di taglio, i restanti sono stati destinati alla valutazione dello stato ossidativo della carne. L’incidenza e la gravità delle miopatie White Striping e Wooden Breast è risultata nettamente inferiore in PLA, rispetto a PMC e PCC, mentre non è stata osservata alcuna differenza significativa nell’incidenza di petti affetti da Spaghetti Meat. Il gruppo PLA ha fatto registrare valori di pH significativamente inferiori rispetto alle altre categorie, senza riflessi negativi sui parametri tecnologici della carne. La capacità di ritenzione idrica è risultata infatti più elevata nel gruppo PLA, come comprovato dai valori inferiori di drip e cooking loss rispetto ai gruppi PMC e PPC. I campioni del gruppo PLA hanno presentato differenze significative per quanto riguarda il colore, con particolare riferimento all’intensità dell’indice di giallo (b*) risultata superiore (P<0,01) rispetto alle altre categorie commerciali. Al contrario, il gruppo PPC ha mostrato livelli inferiori di ossidazione proteica e lipidica. In virtù di quest’ultimo aspetto, le carni della categoria commerciale PPC potrebbero essere destinate alla preparazione di prodotti a base di carne, mentre quelle del PPM presentano caratteristiche più favorevoli per la produzione di sezionati e preparazioni di carne.
Resumo:
La tesi ha avuto come obiettivo la valutazione dell’effetto dell’uso di fonti proteiche alternative (alghe ed insetti) nell’alimentazione del broiler sui parametri qualitativi ed il profilo ossidativo della carne di petto di pollo. A tale scopo, 1000 polli maschi ROSS 308 sono stati suddivisi in 8 gruppi sperimentali in funzione della percentuale di inclusione nel mangime di farina di microalghe ed insetti, e della presenza o meno dell’enzima chitinasi: controllo (dieta commerciale), controllo con enzima, dieta 1 (insetti 9%), dieta 2 (insetti 18%), dieta 3 (insetti 9% + chitinasi), dieta 4 (insetti 18% + chitinasi), dieta 5 (microalghe 3%), dieta 6 (microalghe 6%). Un totale di 120 petti di pollo (15/gruppo) sono stati destinati all’analisi del pH, colore, drip e cooking loss, sforzo di taglio, nonché del livello di ossidazione di grassi e proteine della carne. I risultati ottenuti hanno evidenziato come, a prescindere dal tipo di fonte proteica e dalla percentuale di inclusione, il pH della carne ha mostrato valori significativamente inferiori in tutti i gruppi trattati rispetto al controllo, senza però esercitare effetti negativi sulla qualità della carne. La capacità di ritenzione idrica (valutata tramite drip e cooking loss), lo sforzo di taglio e il livello di ossidazione dei lipidi e delle proteine non sono stati infatti influenzati negativamente dal trattamento dietetico. Tuttavia, il colore della carne è stato modificato dall’alimentazione, con particolare riferimento all’indice di giallo (b*) che è risultato significativamente superiore nei gruppi sperimentali alimentati con microalghe rispetto al controllo e a quelli alimentati con farina di insetti. Tale colorazione potrebbe essere gradita in quei mercati in cui vi è una consolidata abitudine a questa pigmentazione della carne. Ulteriori studi saranno effettuati per valutare l’effetto delle fonti proteiche alternative sulla qualità sensoriale e l’attitudine del consumatore verso il colore del prodotto.
Resumo:
Il contenuto della tesi è incentrato sul processo di adattamento che lo studente Erasmus assume al momento dell'entrata in contatto con una cultura e dei valori diversi dai propri. L’elaborato si basa sul pensiero di Berry, che ha posto l'attenzione sull'inevitabile processo di adattamento dello studente e studiato strategie con le quali quest'ultimo può confrontarsi alla diversità. Nel primo capitolo si è dapprima analizzato il fenomeno della globalizzazione e il modo in cui la società attuale si adopera ogni giorno per prendere parte al processo di trasformazione, per poi porre l'attenzione sull'università di Bologna e sui progetti di scambio che quest'ultima propone. Nel secondo capitolo si è presentata la struttura dell’intervista sottoposta a cinque studentesse Erasmus outgoing del terzo anno del corso di laurea in Mediazione Linguistica Interculturale di Forlì al fine di far emergere i dettagli principali di quanto vissuto all'estero. Nel terzo e ultimo capitolo si sono analizzati i risultati delle interviste, mettendo in relazione la teoria e la pratica. Alla luce del pensiero di Berry, si è verificato come la realtà sia strettamente relazionata con gli elementi trattati dal sociologo e come le funzionalità delle strategie di adattamento possano essere applicabili a diverse esperienze di scambio all'estero.
Resumo:
Il guadagno di un PMT è il fattore di amplificazione tra la corrente generata dal fotocatodo e quella finale dell’anodo. Quando un PMT è soggetto a una sorgente luminosa per lunghi periodi di tempo (processo noto come "invecchiamento"), il suo guadagno tende a diminuire. In questa tesi sono riportati i risultati della campagna di invecchiamento di un fotomoltiplicatore Hamamatsu R760. In particolare, è stato studiato come variasse il guadagno in funzione della carica integrata dal PMT tramite due principali tipi di misure: quella del guadagno assoluto, che consiste in singole misure di guadagno nella condizione di emissione di un singolo fotoelettrone alla volta, e quelle di guadagno relativo, le quali hanno permesso di studiare la dipendenza tra guadagno e voltaggio applicato al PMT. Il PMT in esame è stato fatto invecchiare fino a una carica integrata totale pari a 342 C. Una volta raggiunti i 282 C, è stato spento per 20 giorni, in modo da studiare l’eventuale capacità di recuperare guadagno durante i periodi di inattività. É stata osservata una rapida decrescita del guadagno nei primi 40 C integrati, com- inciando da 7.79 · 10^6 fino a un valore pari a 1.68 · 10^6, seguita da oscillazioni minori attorno a una decrescita lineare media. Dopo il periodo di inattività non è stato rilevato alcun recupero significativo di guadagno. Il guadagno del PMT dipende dal voltaggio applicato tramite una legge a potenza, i cui parametri sono stati misurati. In particolare, gli esponenti di tale relazione sono stati soggetti a una decrescita rapida iniziale (nei primi 40 C di carica integrata), seguita da una stabilizzazione. Inoltre, sono stati ricavati i valori di tensione da applicare al PMT per mantenere il guadagno a un valore costante di 1.5 · 10^5 in funzione della carica integrata. Questo valore è stato scelto come punto di lavoro per il rivelatore PLUME installato nell’esperimento LHCb, che utilizzerà questo tipo di PMT per la sua campagna di misure.
Resumo:
Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
Con il crescente utilizzo delle reti wireless la sicurezza e l'affidabilità del servizio stanno diventando requisiti fondamentali da garantire. Questo studio ha come obiettivi il rilevamento di un attacco jammer e la classificazione della tipologia dell'attacco (reattivo, random e periodico) in una rete wireless in cui gli utenti comunicano con un access point tramite il protocollo random access slotted Aloha. La classificazione degli attacchi è infatti fondamentale per attuare le dovute contromisure ed evitare cali di performance nella rete. Le metriche estratte, fra cui la packet delivery ratio (PDR) e la rispettiva analisi spettrale, il rapporto segnale rumore medio e la varianza dell'rapporto segnale rumore, sono risultate essere efficaci nella classificazione dei jammers. In questo elaborato è stato implementato un sistema di detection e classificazione di jammer basato su machine learning, che ha permesso di ottenere una accuratezza complessiva del 92.5% nella classificazione ed una probabilità di detection superiore al 95% per valori di PDR inferiori o uguali al 70%.
Resumo:
L’elaborato si pone l’obiettivo di realizzare e validare dei campioni in resina epossidica per la rilevazione di attività di scariche parziali interne. Nella prima fase dell’attività di ricerca, sono definite le linee progettuali riguardanti la scelta dei materiali da utilizzare, al fine di creare degli stampi per poter ottenere dei campioni di forma idonea e, successivamente, si procede alla scelta del tipo di resina e degli elettrodi da adoperare. All’interno dei provini, viene iniettata, con una siringa di precisione dotata di un ago sottile, una cavità di aria indicante un eventuale difetto nella matrice polimerica dell’isolante, se sottoposto a un determinato tipo di stress (elettrico, termico, meccanico). I provini sono testati in un circuito di prova ad alto voltaggio per la misura della tensione di innesco alla quale si verificano le scariche; attraverso l’utilizzo di un software specifico, viene poi ricavato il PD pattern utile per l’approccio all’identificazione della tipologia di scarica. Inoltre, sono effettuate delle simulazioni con l’ambiente di calcolo Comsol ottenendo il valore del campo elettrico all’interno della cavità di aria. Il PD pattern viene, in seguito, analizzato estrapolando dei marker statistici di interesse per l’applicazione della fuzzy logic. Questa tipologia di logica prevede la verifica di regole linguistiche per la corretta identificazione del tipo di scarica, individuata dal pattern in esame (interna, superficiale o corona). A seconda dei valori ricavati dai marker, vengono applicate le regole della fuzzy logic per poter classificare, nei campioni esaminati, l’attività di scarica parziale come interna.
Resumo:
L'elaborato si suddivide essenzialmente in due parti principali. Una prima parte descrittiva dove vengono presentati i concetti fondamentali per la corretta comprensione della seconda, nella quale viene descritto il progetto svolto. Esso mira a valutare l’effetto che oggetti in metallo presenti in prossimità di un incrocio stradale hanno sulla propagazione del segnale radio, e in particolare sulla generazione di cammini multipli. I cammini multipli vengono infatti sfruttati dalle tecnologie di trasmissione a multiple antenne (MIMO) per incrementare la capacità di trasmissione. Un parametro sintetico che permette di caratterizzare le prestazioni dei sistemi MIMO è il cosiddetto Condition Number, che si è utilizzato in questo elaborato. Per effettuare lo studio delle prestazioni MIMO si sono utilizzate simulazioni elettromagnetiche a raggi (ray-tracing) e misure sperimentali, che sono state effettuate in prossimità del campus dell’Università Jiaotong di Shanghai, in Cina. Inizialmente, utilizzando una mappa standard dell’ambiente di propagazione, contenente i soli edifici, i valori di Condition Number ottenuti dalle simulazioni ray-tracing differivano notevolmente dai valori sperimentali. Il mio compito è stato quello di modellare nuovi elementi di forma cilindrica che ben simulano le proprietà fisico-geometriche dei pali e di altri oggetti metallici presenti lungo il tragitto e nelle intersezioni stradali e di inserirli nella mappa nella corretta posizione. Le simulazioni poi sono servite per valutare l’efficacia in termini di miglioramento delle prestazioni, in particolare sulla generazione di nuovi cammini sfasati nel tempo e nello spazio, e il relativo effetto sui valori numerici del condition number. Successivamente, è stata fatta una valutazione sull’influenza della vegetazione presente in loco per vedere quanta influenza abbia sul collegamento radio.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
Le perovskiti ibride ad alogenuri costituiscono una classe di materiali con proprietà elettroniche e bassi costi di fabbricazione tali da renderle ottime candidate per applicazioni quali la produzione di celle solari, detector, LED e laser. L’impiego pratico delle perovskiti tuttavia è limitato: i dispositivi basati su questi materiali sono instabili a causa della spiccata reattività con l’ambiente esterno, come umidità e ossigeno. Nelle perovskiti inoltre la conduzione non è solo elettronica, ma anche ionica, caratteristica che contribuisce alla rapida degradazione dei materiali. In questa tesi si vuole studiare il contributo del trasporto ionico ed elettronico alla corrente nella perovskite MAPbBr3 (tribromuro di metilammonio piombo) e la reattività di tale materiale con l’ambiente. A tal proposito si usa la tecnica Intensity Modulated Photocurrent Spectroscopy (IMPS), che consiste nel misurare la fotocorrente prodotta da un dispositivo optoelettronico in funzione della frequenza di modulazione di una sorgente luminosa, quale LED o laser. Si ripetono le misure IMPS in aria, vuoto e argon, per studiare l’impatto dell’atmosfera sulla risposta del campione. Con un apposito software si esegue il fit dei dati sperimentali e si estrapolano i tempi caratteristici dei portatori di carica: si ottengono valori dell’ordine del μs per elettroni e lacune, del s per gli ioni mobili. Si confronta quindi il comportamento del campione nelle varie atmosfere. Si evince come in aria sia presente un maggior numero di specie ioniche che migrano nel materiale rispetto ad atmosfere controllate come il vuoto e l’argon. Tali specie sono associate a ioni mobili che si formano in seguito all’interazione del materiale con molecole di ossigeno e acqua presenti nell’ambiente.