659 resultados para Piccole e medie imprese - Rischi - Valutazione - Modelli econometrici
Resumo:
Molti edifici realizzati negli anni ‘80-‘90 sono caratterizzati da impianti con caldaie autonome e nell’ambito degli interventi di riqualificazione energetica solo raramente vengono inserite delle pompe di calore a causa della temperatura di funzionamento dell’impianto, che spesso deve essere mantenuta elevata per i sistemi di emissione a radiatori. Tuttavia la riduzione dei carichi termici dovuti all'isolamento degli edifici consente di utilizzare i terminali esistenti facendoli lavorare a bassa temperatura, con temperature medie di 45-50°C. Obiettivo principale della tesi è quindi la valutazione della fattibilità e dei vantaggi energetici nell’ambito della sostituzione di un sistema di riscaldamento autonomo a gas con un sistema a pompa di calore. Viene preso in esame un edificio condominiale formato da 47 alloggi sito a San Lazzaro di Savena e in particolare verrà valutata la fattibilità di inserire un impianto centralizzato a pompa di calore per ogni corpo scala di cui è composto l’edificio, alimentando l’impianto con pannelli fotovoltaici installati in copertura. Per valutare i vantaggi energetici è stato utilizzato il software di simulazione dinamica Design Builder che consente di analizzare i fabbisogni energetici e la produzione di energia con step orario. Il modello dinamico permette anche di studiare le strategie d’involucro più opportune per diminuire il fabbisogno energetico e poter far lavorare la pompa di calore con i radiatori esistenti a bassa temperatura. I risultati attesi dal lavoro sono molteplici: in primo luogo verificare che la scelta dell’introduzione della pompa di calore consenta all'edificio di ridurre i consumi di energia primaria da fonti non rinnovabili, con lo scopo di portare l’edificio ad una richiesta di quasi zero energia (NZEB) in linea con le nuove normative europee e nazionali; in secondo luogo che l’utilizzo della simulazione oraria consenta di valutare il matching reale tra produzione e consumo di energia.
Resumo:
L’elaborato presenta lo sviluppo di un’applicazione web che unisce il con- cetto di crowdsourcing, ovvero un paradigma in cui una colletività esegue una mansione per il raggiungimento di un obiettivo; e il concetto di crowd- sensing, paradigma nel quale un gruppo di persone, utilizzando il proprio dispositivo mobile, condivide dati, che possono essere successivamente stu- diati. SmartCrowd si pone come intermediario tra questi due modelli, e la sua implementazione permette di raccogliere dati da una “folla” che faccia uso dei dispositivi mobili, usufruendo di una piattaforma di crowdsourcing. Con SmartCrowd vengono create le campagne, ovvero insieme di attività svol- te dagli utenti finali; esiste un sistema di interazione con la piattaforma di crowdsourcing di Microworkers, volta al reclutamento delle persone; la con- divisione dei dati tramite smartphone, usando il sensore GPS, eseguita dagli utenti ed infine, tramite SmartCrowd è possibile analizzare i dati ricevuti e fare una valutazione positiva o negativa.
Resumo:
Diverse organizzazioni nel mercato si chiedono come fare per permettere uno sviluppo della propria azienda in un mercato caratterizzato da sempre più competitor e un numero sempre maggiore di canali su cui i consumatori possono essere raggiunti. Fare branding è la risposta. Il branding è una pratica di marketing che permette all’azienda di distinguere i propri prodotti o servizi e quindi di identificare ciò che l’azienda stessa vende. Il processo di branding è un processo continuo e perpetuo che nel tempo permette alle aziende di plasmare la percezione di un marchio nella mente del consumatore. Le strategie di branding che possono essere applicate sono diverse e dipendono molto dal budget a disposizione dell’azienda. Per questo, nel caso di piccole-medio imprese con dei budget limitati, lo sviluppo della marca risulta essere un processo strategico per la loro crescita e diventa necessario in un mercato saturo come quello attuale. Risulta quindi importante per le PMI utilizzare e sfruttare il brand come un vero contenitore di significati, in grado di dare coerenza alla comunicazione e alle azioni aziendali e per identificare una direzione precisa da raggiungere. L’obiettivo di questo studio è quello di determinare in che modo ad oggi l’azienda Valentina Giorgi, piccola-media impresa italiana, utilizza il proprio brand sia a livello comunicazionale sia a livello distributivo per crescere come azienda ed espandersi. A questo proposito sono state indagate sia le strategie comunicative e distributive attuate finora dall’azienda, per comprendere il motivo per cui sono state svolte e analizzarne l’efficacia, oltre a ricercare lo scostamento presente tra l’idea che l’azienda ha costruito del brand e quella effettivamente percepita dai consumatori.
Resumo:
La presente sperimentazione ha avuto come obiettivo la formulazione di oli aromatizzati, ottenuti mediante la tecnica di co-frangitura delle olive con arancia, sottoprodotti dell’arancia, melagrana e pepe nero. In questo lavoro di tesi viene affrontata la definizione di olio aromatizzato, cioè un olio d’oliva arricchito con uno o più composti aromatici, come oli essenziali, spezie, erbe aromatiche o frutti. Inizialmente vengono esposte le principali tecniche di aromatizzazione. Successivamente vengono trattati i principali parametri di qualità per la classificazione merceologica degli oli, i composti volatili e i composti fenolici che caratterizzano questi prodotti, ed infine viene descritta la valutazione sensoriale degli oli d’oliva. I campioni di olio prodotti sono stati sottoposti ad analisi per la valutazione dello stato idrolitico, mediante determinazione titrimetrica dell’acidità libera e del contenuto di composti ad attività riducente tramite determinazione spettrofotometrica con reattivo di Folin-Ciocalteu. Infine, sono stati studiati i composti volatili degli oli aromatizzati prodotti, identificando e quantificando i principali attributi sensoriali mediante analisi descrittiva effettuata da un gruppo di assaggiatori addestrati. Dalle analisi eseguite sui campioni si è potuto riscontrare come gli oli prodotti non abbiano problemi di degradazione idrolitica, possiedano un contenuto medio/alto di composti fenolici e siano caratterizzati dalla presenza di attributi secondari positivi.
Resumo:
L’innovazione tecnologica nell’ambito alimentare ha portato alla realizzazione di nuovi prodotti al fine di far fronte all’incremento demografico e ai numerosi problemi che ne conseguono, come ad esempio quello della sostenibilità ambientale. Tra questi prodotti troviamo sia alternative che si basano su proteine già esistenti in natura, come ad esempio prodotti a base di insetti, sia nuove fonti di proteine prodotte in laboratorio: questo è il caso della carne coltivata in vitro, tessuto muscolare ricavato a partire da colture cellulari in grado di ridurre drasticamente il numero di animali allevati e macellati. In questo elaborato vengono discusse le principali tecnologie produttive per la realizzazione della carne in vitro e si analizzano gli aspetti critici legati all’accettazione di questo tipo di prodotti da parte dei consumatori. Per valutare l’opinione dei consumatori è stato somministrato un sondaggio che includeva 12 brevi domande a 343 potenziali consumatori di carne coltivata . Dall’analisi dei dati raccolti, emerge una generale “neofobia” nei confronti della carne coltivata, che può essere causata da motivi legati alla scarsa informazione e alla conseguente mancanza di fiducia riguardo alle tecnologie produttive innovative. Un importante aspetto emerso nel corso dello studio è rappresentato dalla differenza delle opinioni di consumatori appartenenti a diverse categorie, come ad esempio i consumatori abituali di prodotti a base di carne e, dall’altra parte, le persone che hanno eliminato dalla loro dieta abituale i prodotti di origine animale. È essenziale comprendere le radici della neofobia che le diverse categorie di consumatori possono manifestare nei confronti di alimenti innovativi come la carne coltivata, per realizzare un’efficace strategia comunicativa che faccia leva sulle maggiori barriere psicologiche delle persone, sostituendole con informazioni riguardo ai benefici che una transizione verso questo tipo di prodotti potrebbe apportare.
Resumo:
L’obiettivo iniziale di questo lavoro era quello di studiare il fenomeno della proteolisi nel formaggio, al variare del tempo di stagionatura e di salatura, mediante lo studio dello stato dell’acqua, con una metodica non distruttiva e innovativa per questa tematica: il TD-NMR. I formaggi oggetto di studio sono stati prodotti con un impianto pilota presente in Dipartimento, con lo stesso latte, nella stessa giornata e nelle medesime condizioni di caseificazione. Il primo passo è stato quello di assegnare un nome alle 4 popolazioni di protoni corrispondenti alle 4 curve esponenziali in cui si traducevano i risultati di T2. Dato che gli studi bibliografici consultati non erano concordi su questo aspetto e nessuno aveva svolto esperimenti che potessero confermare le supposizioni formulate, abbiamo proceduto all’analisi di un formaggio simile ai nostri campioni, addizionato di una soluzione dopante a base di Fe(III)Cl2. Questo passaggio ci ha permesso di identificare i tipi di molecole rappresentati dalle 4 popolazioni. Successivamente siamo stati in grado di fare ipotesi concrete sull’evoluzione dei risultati di T2 e intensità relativa al variare del tempo di stagionatura e di salatura. Dalle nostre osservazioni è emerso che è possibile correlare l’andamento di T2 e I a quello di diversi parametri che caratterizzano il formaggio. Le ipotesi emerse da questo studio sono solamente intuizioni preliminari riguardo l’impiego di questo metodo di analisi per il formaggio, che però ha la potenzialità di essere molto utile nella ricerca e anche nell’industria. Si tratta infatti di un metodo caratterizzato da estrema facilità nella preparazione dei campioni, che può essere adattato ad analisi non distruttive e che impiega uno strumento molto economico rispetto ad altri tipi di analisi NMR. Possiamo inoltre concludere che, avendo messo a punto questi aspetti di base, l’interpretazione dei dati sarà senz’altro più semplice rispetto ad altre analisi NMR.
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di valutare l’effetto di diverse modalità di affumicatura sulla funzionalità della frazione proteica di filetti di salmoni norvegesi, valutata tramite la determinazione della solubilità e dell’ossidazione delle proteine. A tale scopo, 60 filetti di salmone dal peso omogeneo di circa 600g sono stati sottoposti a salagione e successivamente suddivisi in 3 gruppi sperimentali in funzione del processo di affumicatura (n=20/gruppo): ad aria a 20°C (AR-20), ad azoto a 20°C (AZ-20) e a 5°C (AZ-5). Al termine dei trattamenti tutti i filetti sono stati confezionati sottovuoto, conservati in cella frigorifera e sottoposti alle determinazioni analitiche a 5 diversi tempi di campionamento, per un totale di 17 giorni di conservazione. Dai dati ottenuti si evince come la tecnica di affumicatura commerciale (AR-20) determini, nel complesso, una riduzione della solubilità totale delle proteine, presumibilmente dovuta all’innesco di fenomeni ossidativi che hanno causato un accumulo di composti carbonilici, prevalentemente riscontrabile al termine della conservazione. L’affumicatura con azoto ha fatto invece registrare un miglioramento della funzionalità proteica a prescindere dalla temperatura impiegata, se paragonata all’affumicatura commerciale. A discapito di quanto atteso, l’affumicatura con azoto a 5°C non ha determinato un miglioramento in termini di solubilità ed ossidazione proteica, se paragonato alla controparte affumicata a 20°C; infatti i campioni appartenenti al gruppo AZ-20 hanno mostrato valori di solubilità proteica più elevati congiuntamente ad un contenuto di carbonili significativamente ridotto rispetto agli altri gruppi sperimentali. Alla luce di questi aspetti, ulteriori studi sono necessari al fine di confermare i risultati ottenuti ed approfondire l’effetto delle diverse modalità di affumicatura sulle proprietà funzionali e tecnologiche dei filetti di salmone.
Resumo:
L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.
Resumo:
Lo sviluppo di fibrosi epatica si associa caratteristicamente a un eccesso di produzione e reticolazione della matrice extracellulare del tessuto, che causa un progressivo aumento del modulo elastico e della viscosità dell’organo – che a loro volta determinano ipertensione portale e insufficienza funzionale. Modelli avanzati che riproducano in vitro il microambiente epatico sono cruciali per lo studio della patogenesi del fenomeno e per la valutazione di adeguate terapie future. Un esempio chiaro di questa strategia viene presentato in un recente lavoro di ricerca, nel quale Cacopardo et al. propongono una strategia basata sull’utilizzo di tipi differenti di idrogel, con proprietà elastiche e viscosità variabili, per studiare la meccano-dinamica in un ambiente di coltura tridimensionale. Idrogel di carichi di cellule sono dunque stati differenzialmente reticolati mediante transglutaminasi microbica, utilizzando un metodo citocompatibile originale che consenta l’esposizione delle cellule a un ambiente con proprietà meccaniche che variano nel tempo. Per la coltura dei costrutti 3D è stato inoltre utilizzato un bioreattore che si è dimostrato utile anche per monitorare nel tempo le proprietà meccaniche dei costrutti cellulari. I risultati hanno mostrato che una maggiore “solidità” della matrice è coerente con l’aumento dello stress cellulare. Il metodo proposto si è dimostrato quindi in grado di imitare efficacemente il microambiente meccanico associato alla fibrosi epatica e in evoluzione nel tempo e, di conseguenza, potrebbe fornire nuove informazioni sui processi fisiopatologici correlati e suggerire più efficaci strategie terapeutiche.
Resumo:
La colonna vertebrale è uno dei principali siti per lo sviluppo delle metastasi ossee. Esse modificano le proprietà meccaniche della vertebra indebolendo la struttura e inducendo l’instabilità spinale. La medicina in silico e i modelli agli elementi finiti (FE) hanno trovato spazio nello studio del comportamento meccanico delle vertebre, permettendo una valutazione delle loro proprietà meccaniche anche in presenza di metastasi. In questo studio ho validato i campi di spostamento predetti da modelli microFE di vertebre umane, con e senza metastasi, rispetto agli spostamenti misurati mediante Digital Volume Correlation (DVC). Sono stati utilizzati 4 provini da donatore umano, ognuno composto da una vertebra sana e da una vertebra con metastasi litica. Per ogni vertebra è stato sviluppato un modello microFE omogeneo, lineare e isotropo basato su sequenze di immagini ad alta risoluzione ottenute con microCT (voxel size = 39 μm). Sono state imposte come condizioni al contorno gli spostamenti ottenuti con la DVC nelle fette prossimali e distali di ogni vertebra. I modelli microFE hanno mostrato buone capacità predittive degli spostamenti interni sia per le vertebre di controllo che per quelle metastatiche. Per range di spostamento superiori a 100 μm, il valore di R2 è risultato compreso tra 0.70 e 0.99 e il valore di RMSE% tra 1.01% e 21.88%. Dalle analisi dei campi di deformazione predetti dai modelli microFE sono state evidenziate regioni a maggior deformazione nelle vertebre metastatiche, in particolare in prossimità delle lesioni. Questi risultati sono in accordo con le misure sperimentali effettuate con la DVC. Si può assumere quindi che il modello microFE lineare omogeneo isotropo in campo elastico produca risultati attendibili sia per le vertebre sane sia per le vertebre metastatiche. La procedura di validazione implementata potrebbe essere utilizzata per approfondire lo studio delle proprietà meccaniche delle lesioni blastiche.
Resumo:
La malattia oncologica è caratterizzata da una complessa rete di processi di alterazioni replicative, infiammatorie e metaboliche che, se non adeguatamente corrette, possono compromettere lo stato nutrizionale del paziente, aumentando esponenzialmente il rischio di incorrere in una condizione di malnutrizione. L’equilibrio tra energia, composizione corporea e funzioni dell’organismo può essere ripristinato soltanto con un corretto intervento nutrizionale: è il dietista che, adoperando il Nutrition Care Process, interverrà per garantire al paziente un corretto supporto nutrizionale, ricorrendo al counseling per fornirgli le strategie necessarie a superare le cause di scarso apporto nutrizionale o, qualora le misure dietetiche fossero insufficienti, tramite l’uso di Supplementi Nutrizionali Orali. In questo contesto, la ricerca scientifica ha introdotto l’immunonutrizione, una modalità di nutrire il paziente e allo stesso tempo di modulare l’attività immunitaria a favore del processo di guarigione. Le evidenze si mostrano a favore anche della fornitura extra di amminoacidi a catena ramificata che, oltre a colmare il deficit proteico-energetico, forniscono precursori per ridurre il catabolismo muscolare, promuovendo l’anabolismo. Come terapia adiuvante nel trattamento del cancro sta emergendo in letteratura anche la Dieta Chetogenica, la cui efficacia risiederebbe nella capacità di instaurare un ambiente sfavorevole alla sopravvivenza delle cellule neoplastiche deprivandole del loro unico nutrimento, il glucosio. Alla fine di educare la popolazione ad una corretta prevenzione, risulta necessario diffidare da qualsiasi dieta “miracolosa” e “antitumorale” che, per quanto accattivanti, non fanno altro che generare falsa informazione. Quindi cosa dice la scienza? La nutrizione non ha il potere di guarire dalle malattie oncologiche, ma uno stile di vita sano e un’alimentazione di impronta Mediterranea rappresentano sicuramente la chiave per una corretta prevenzione.
Resumo:
Le colture starter sono preparazioni comprendenti una o più specie microbiche aggiunte per condurre i processi fermentativi, con risvolti positivi sulle caratteristiche tecnologiche e igienico-sanitarie dei prodotti ottenuti. Questa tesi si inserisce in un progetto europeo volto a sfruttare la biodiversità microbica di salumi dell'area del Mediterraneo, utilizzandoli come fonte di isolamento di batteri lattici (LAB) da proporre come nuove colture starter e/o bioprotettive. Prove preliminari hanno permesso di selezionare un numero ridotto di LAB, considerati sicuri, che in questa tesi sono stati studiati per il loro potenziale tecnologico (cinetiche di crescita a 20°C) per valutarne l’attitudine ad essere utilizzati in salami prodotti a livello industriale. Sulla base di queste prove effettuate in laboratorio, 4 ceppi (Latilactobacillus sakei 2M7 e SWO10, Lactiplantibacillus paraplantarum BPF2, Latilactobacillus curvatus KN55) sono stati utilizzati per la produzione di salami a livello industriale, confrontando le loro performances con uno starter commerciale utilizzato comunemente in azienda. I risultati hanno mostrato come tutti i ceppi siano stati in grado di sviluppare nella matrice con cinetiche simili, anche se questa acidificazione non ha limitato il contenuto di enterobatteri, ad eccezione del campione controllo, dove tuttavia i LAB hanno mostrato una ridotta capacità di persistenza. Il ceppo BPF2 ha ridotto significativamente il contenuto di tiramina nel prodotto finito. L’analisi dei metaboliti volatili ha evidenziato un diverso accumulo di prodotti derivanti dallo sviluppo dei LAB (es. acidi, aldeidi), anche se tali differenze erano difficilmente percepibili a livello olfattivo e tutti i salami presentavano un odore gradevole. Ulteriori prove saranno necessarie per garantire la qualità microbiologica del prodotto finito (controllo degli enterobatteri) e per effettuare anche test sensoriali, al fine anche di favorire la differenziazione dei prodotti.
Resumo:
Nell’ultimo decennio, la grandine è diventata oggetto di numerosi articoli e approfondimenti. Moderne ricerche climatologiche mostrano che tale fenomeno è in aumento in alcune aree geografiche, ma ne rimane ignota l’esatta ragione. La grandine è un evento atmosferico che può essere disastroso in molti ambiti della vita umana, essendo capace di provocare danni economici di grande portata. Sfortunatamente, la capacità previsionale risulta ancora inefficace in questo campo, anche se recentemente sono stati compiuti numerosi progressi grazie all’utilizzo di nuovi strumenti osservativi da satelliti e all’ausilio di simulazioni sempre più efficienti. Questo lavoro vuole sintetizzare le principali conoscenze teoriche e fenomenologiche della grandine, partendo dalla presentazione della struttura dei sistemi temporaleschi e poi approfondendo la teoria microfisica che sta alla base della sua crescita. L’obiettivo `e quello di fornire gli strumenti necessari ad una conoscenza approfondita del fenomeno e di dare un’idea di come esso può essere studiato e capito. Infatti, concluderemo l’elaborato spiegando delle reali simulazioni che sono state compiute in questo campo; una di natura meteorologica, che ha l’obiettivo di illustrare l’importanza delle simulazioni nell’analisi previsionale degli eventi atmosferici, ed una riguardante un modello microfisico, che `e stato capace di ottenere risultati innovativi sul fenomeno dell’accrezione.
Resumo:
Durante gli ultimi anni sta avendo sempre più rilevanza il problema del cambiamento climatico, dovuto principalmente all’emissione in atmosfera di gas serra. Una delle soluzioni da adottare è una transizione energetica verso fonti di energia rinnovabili e una progressiva elettrificazione di tutte le tecnologie che utilizzano ancora combustibili fossili. L’obiettivo di questa tesi di Laurea è analizzare e implementare un semplice modello in MATLAB/Simulink di una turbina eolica, conoscendo solo i dati di targa del generatore, la curva di potenza della turbina e avendo a disposizione dei dati reali di velocità del vento, potenza prodotta e velocità di rotore. Il progetto quindi consiste in un lavoro di reverse engineering in cui, partendo dai componenti reali, si cerca di ricavare, in maniera empirica e sperimentale, i parametri che ne caratterizzano il modello matematico. Successivamente è stato implementato un modello su Simulink, partendo da un modello già esistente, in cui si è simulato il comportamento della macchina, ottenendo una stima della potenza prodotta.
Resumo:
La Sclerosi Multipla (SM) è una malattia neurodegenerativa che colpisce la mielina che riveste i neuroni, indebolendo così la trasmissione del segnale. I sintomi più comuni sono intorpidimento della sensazione tattile e difficoltà motoria, accompagnato da stanchezza e altri sintomi. Per la diagnosi della malattia si utilizza la Risonanza Magnetica (RM) per visualizzare la presenza delle lesioni e la Risonanza Magnetica Funzionale (fRM) per valutare il grado di attivazione delle aree cerebrali. In ambito medico l’utilizzo della RM, in supporto alle altre tecniche di analisi, ha permesso di migliorare e velocizzare la diagnosi e la prognosi della SM. Procedendo all’acquisizione di immagini RM è possibile notare la presenza delle lesioni e controllarne l’evoluzione. Infatti, a seguito della scoperta di lesioni, in base alla gravità e alla tipologia di lesione formatasi, è possibile stabilire il trattamento farmacologico da seguire. In particolare, per il caso dell’atrofia cerebrale la RM ha consentito di visualizzare le aree cerebrali affette e valutare la variabilità dei risultati del confronto tra carico lesionale e atrofia per le prestazioni cognitive. La fRM ha inoltre permesso di poter valutare i cambiamenti dei flussi ematici cerebrali e di visualizzare quindi le zone più o meno colpite dalla patologia. Questa tecnica di imaging funzionale è in grado di valutare le aree cerebrali preservate e promuovere un trattamento mirato per le aree affette. Studiando i flussi ematici si possono ricavare delle mappe spaziali che permettono di visualizzare nell’insieme la malattia. Per lo studio dell’affaticamento è stata utile la fRM poiché ha permesso di rilevare le aree che si sono attivate durante l’esecuzione del task motorio. A seguito di questi esami si è concluso che in presenza di SM si attivano aree cerebrali che in condizioni normali non si attiverebbero, comportando così un affaticamento del soggetto.