373 resultados para Olografia, Ologramma, Luce, Interferenza
Resumo:
La rapida diffusione di Sistemi Aerei a Pilotaggio Remoto che si è verificata negli ultimi anni ha portato alla necessità di regolamentare ed armonizzare il loro utilizzo. I vari enti regolatori nazionali hanno dovuto trovare una soluzione a fronte di una serie di incidenti che hanno portato alla luce le lacune normative ed organizzative che ancora esistevano in materia. In Italia, in particolare, l’Ente Nazionale Aviazione Civile (ENAC) ha introdotto da fine 2013 un regolamento, più volte aggiornato e in parte ancora in fase di definizione, che impone delle rigide norme agli operatori dei mezzi a pilotaggio remoto. La presente attività riporta quindi lo sviluppo di un processo di certificazione di un Sistema Aereo a Pilotaggio Remoto ad ala fissa con peso massimo al decollo superiore a 25 kg, che si possa adattare alle più recenti norme presenti nel regolamento. Si presenta quindi lo sviluppo del Manuale di volo e del documento di Valutazione del rischio del mezzo, seguiti dallo studio del programma di attività sperimentale necessario per la certificazione. Infine, nella parte finale dell’elaborato si presentano dei test di volo effettuati seguendo il piano di sperimentazione strutturato e atti a dimostrare l’efficacia di tale pianificazione. Tali voli sono stati condotti infatti con un velivolo con caratteristiche similari a quelle del mezzo oggetto di studio, ma avente dimensioni e peso minori.
Resumo:
I materiali fotocatalitici, se opportunamente irradiati con luce di una opportuna lunghezza d'onda, consentono un maggior abbattimento delle sostanze organiche e inorganiche nocive con le quali vengono a contatto. Essi sono in grado inoltre grazie alla loro spiccata idrofilia di conservare inalterato nel tempo il loro aspetto estetico. Il connubio ingegneria e chimica ha creato dunque materiali fotocatalitici contenenti al loro interno particelle di TiO2, il principale fotocatalizzatore in commercio, che, applicati in ambiti urbani ed edilizi come rivestimenti, pitture, rimescolato in pasta di malte o masselli autobloccanti, pitture o piastrelle antisettiche e vetri autopulenti, possono generare effetti positivi in termini sia di antinquinamento che di antibattericità. La tesi parte dalla descrizione delle reazioni chimiche che stanno alla base della fotocatalisi e prosegue descrivendo il fotocatalizzatore più attivo ed efficace fino ad ora scoperto, il TiO2. Nella seconda parte della tesi si citano le principali aziende italiane e mondiali che si sono impegnate nella produzione di materiali fotocatalitici, riportando le loro opere e i loro prodotti. Nella parte terza si vogliono invece fornire le informazioni generali attualmente conosciute sulla minaccia alla salute che può costituire l'utilizzo di materiali nanometrici come il TiO2. Nella parte quarta invece si risponde alle ancora frequenti domande riguardanti l'efficacia del TiO2 nelle applicazioni reali al variare del materiale di supporto, la sua efficacia nel lungo termine, il reale effetto autopulente nell'ambiente reale e nel suo impatto sull'ambiente. Si riportano i risultati di laboratorio riguardanti l'efficacia fotocatalitica in termini di degradazione di tinte e di angolo di contatto, direttamente applicati alla realtà delle costruzioni: su supporti diversi in termini di permeabilità e idrorepellenza, è stata applicata una sospensione acquosa fotocatalitica applicata sia a pennello che tramite getto spray HVLP. Alcuni campioni sono poi stati dilavati simulando l'azione atmosferica di weathering dell'area bolognese.
Resumo:
La Stimolazione Magnetica Transcranica (TMS) è una tecnica non invasiva di neuromodulazione e neurostimolazione della corteccia cerebrale, che si basa sulla capacità di una corrente indotta nello scalpo di interferire con il normale funzionamento neuronale. Essa trova impiego in numerosi settori, quali l'indagine dell'eccitabilità delle differenti regioni corticali, lo studio della relazione tra cervello e comportamento, e il trattamento terapeutico di numerosi disturbi. L'obiettivo di questo elaborato è offrire una vasta panoramica sulle possibili applicazioni terapeutiche e non della TMS. A tale scopo, vengono presentate diverse sperimentazioni per ciascun ambito. Si cerca inoltre di mettere in luce sia le limitazioni che le potenzialità di questa tecnica, per comprendere quali siano gli aspetti su cui i futuri studi dovrebbero concentrarsi.
Resumo:
Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.
Resumo:
Gli eventi sismici del 2012 in Emilia-Romagna hanno provocato una rinnovata attenzione su alcuni fenomeni di carattere geologico superficiale. Sono stati in particolare riferiti dalla stampa locale e osservati dagli abitanti gorgogliamenti di gas naturale nelle acque dei pozzi, nelle acque dei canali di bonifica ed emissioni di gas libero, in prevalenza metano. In questa tesi si è voluto mettere in luce tutto lo sviluppo storico del metano Padano, facendo un particolare riferimento al metano più superficiale, ossia al metano denominato biogenico, illustrando le sue origini, le sue prime manifestazioni, la sua scoperta, la sua derivazione dalla torba, le sue prime produzioni, considerando gli impatti ambientali possibili e verificati, arrivando fino all’attuale periodo in cui esso si è affermato diventando una delle fonti principali di energia ed una delle materie prime più preziose. La Tesi ha lo scopo di meglio chiarire l’origine e la modalità di occorrenza del metano biogenico Padano. Viene inoltre sviluppata una indagine orientata a identificare gli orizzonti geologici più “produttivi” di metano biogenico della regione Emilia-Romagna originato da torbe. Le aree effettivamente più produttive sono una parte di quelle ricche in torba e sono caratterizzate da buone capacità di conservazione nel tempo delle caratteristiche chimico fisiche favorevoli alla degradazione batterica della sostanza organica. Ciò avviene quando vengono mantenute particolari condizioni di isolamento tramite argille ecc. Il metano biogenico Padano viene costantemente espulso dai sedimenti e naturalmente disperso in atmosfera. Eventuali attività di captazione del metano dalle aree maggiormente produttive potranno contribuire alla diminuzione dell’effetto serra e alla contestuale produzione a piccola o piccolissima scala di energia nei limiti delle normative in vigore soggette ad eventuali possibili revisioni in analogia a quanto disposto per altre forme di generazione di metano come biogas, discariche ecc.
Resumo:
Il presente elaborato ha lo scopo di descrivere il dimensionamento e la seguente verifica di una pavimentazione stradale per una strada montana di categoria C2, il cui progetto di massima è stato realizzato nell’ A.S: 2012/2013. La sovrastruttura stradale è costituita da un insieme di strati che, partendo dal piano di viabile, raggiungono la sommità del rilevato o il piano di posa nelle sezioni in trincea. La sua funzione principale consiste nel ripartire i carichi, applicati in superficie dai veicoli, in modo da renderli compatibili con la portanza del sottofondo. Poiché le sollecitazioni si smorzano con la profondità, i materiali degli strati devono avere caratteristiche fisico-meccaniche diverse in funzione dell’intensità e del tipo di sollecitazione prevalente. Una sovrastruttura stradale deve rispondere ad alcuni requisiti fondamentali: - Portanza: rappresenta l’attitudine a sopportare carichi senza subire deformazioni elastiche e plastiche oltre una soglia limite. È affidata principalmente agli strati profondi e condiziona la vita utile della sovrastruttura; - Aderenza: è un fattore fondamentale per il raggiungimento degli obiettivi di sicurezza della circolazione ed è collegata alle caratteristiche compositive e alla tessitura dello strato superficiale; - Regolarità: da essa dipendono il comfort di marcia e la sicurezza del moto; - Drenabilità: anch’essa connessa alle esigenze di sicurezza e dipendente dalla composizione delle miscele utilizzate; - Visibilità: funzione del colore e delle caratteristiche di assorbimento della luce del materiale costituente il tappeto superficiale, anch’essa strettamente collegata ai requisiti di sicurezza. La piattaforma stradale (descritta all’interno del capitolo 2) è costituita da due corsie, una per ogni senso di marcia, della larghezza di 3.50 metri, una banchina laterale di 1.25 metri e un ciglio di 0.75 metri per ogni senso di marcia.
Resumo:
In questa tesi sono le descritte le fasi progettuali e costruttive del Beam Halo Monitor (BHM), un rivelatore installato sull'esperimento CMS, durante il primo lungo periodo di shutdown di LHC, che ha avuto luogo tra il 2013 ed il 2015. BHM è un rivelatore ad emissione di luce Cherenkov ed ha lo scopo di monitorare le particelle di alone prodotte dai fasci di LHC, che arrivano fino alla caverna sperimentale di CMS, ad ogni bunch crossing (25 ns). E' composto da 40 moduli, installati alle due estremità di CMS, attorno alla linea di fascio, ad una distanza di 1.8 m da questa. Ciascun modulo è costituito da un cristallo di quarzo, utilizzato come radiatore ed un fotomoltiplicatore. Sono descritte in maniera particolare le prove eseguite sui moduli che lo compongono: la caratterizzazione dei fotomoltiplicatori ed i test di direzionalità della risposta. Queste costituiscono la parte di lavoro che ho svolto personalmente. Inoltre sono descritte le fasi di installazione del rivelatore nella caverna sperimentale, a cui ho preso parte ed alcuni test preliminari per la verifica del funzionamento.
Resumo:
In questa tesi viene affrontato lo studio degli integrali funzionali nella meccanica quantistica, sia come rielaborazione dell'operatore di evoluzione temporale che costruendo direttamente una somma sui cammini. Vengono inoltre messe in luce ambiguit\`a dovute alla discretizzazione dell'azione corrispondenti ai problemi di ordinamento operatoriale della formulazione canonica. Si descrive inoltre come una possibile scelta della discretizzazione dell'integrale funzionale pu\`o essere ottenuta utilizzando l'ordinamento di Weyl dell'opertore Hamiltoniano, sfruttando la relazione tra Hamiltoniana Weyl ordinata e la prescrizione del punto di mezzo da usare nella discretizzazione dell'azione classica. Studieremo in particolare il caso di una particella non relativistica interagente con un potenziale scalare, un potenziale vettore (campo magnetico) ed un potenziale tensore (metrica).
Resumo:
Le ammine biogene sono composti azotati a basso peso molecolare che vengono prodotti in seguito alla decarbossilazione degli aminoacidi da parte di specifici enzimi microbici della famiglia delle decarbossilasi. Questi composti sono presenti in diversi alimenti e, in particolare, in quelli fermentati. Nonostante la capacità dell’organismo di metabolizzare tali molecole tramite appositi sistemi di detossificazione una loro eccessiva assunzione provoca sintomatologie deleterie per la salute umana. La tiramina, in particolare, è una delle ammine biogene attualmente più studiate in ragione della diffusa presenza dell’enzima tirosina decarbossilasi (tyrDC) nel pool enzimatico di diversi batteri lattici, specialmente quelli appartenenti al genere Enterococcus. Seppure in letteratura vi siano numerosi studi riguardanti il rapporto fra contenuto di tiramina e l’attività degli enterococchi in molti alimenti, ad oggi sono ridotte le informazioni inerenti la regolazione e il ruolo fisiologico di tale molecola per la cellula microbica. Alla luce di tali considerazioni questa tesi mi sono occupata di approfondire le conoscenze relative l’attività dell’enzima tyrDC in un terreno di coltura a composizione nota da parte dei due ceppi di Enterococcus faecalis EF37 e ATCC29212. A tal fine i ceppi sono stati inoculati in cinque diversi terreni e incubati a tre diverse temperature (20°C, 30°C e 40°C), dopo averli pre-coltivati in terreni contenenti o meno tirosina, allo scopo di valutare se la fase di pre-adattamento fosse in grado di influenzare le performance dei ceppi considerati. Dai risultati ottenuti è emerso che è presente un’estrema eterogeneità nell’attività dell’enzima tyrDC anche all’interno della medesima specie, infatti se il ceppo EF37 ha performance migliori in termini di decarbossilazione quando pre-adattato, il ceppo ATCC29212 non sembra essere influenzato da questo fattore, seppur entrambi presentino una crescita cellulare più accentuata quando pre-adattati. È stata inoltre confermata, alle condizioni adattate, la capacità di produrre 2-feniletilamina da parte del solo ceppo EF37.
Resumo:
La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
L’elaborato si compone di cinque capitoli. Il primo è dedicato a un excursus della Letteratura per l’infanzia nel corso degli anni, soffermandosi sulla storia, lo sviluppo e la ricezione nel pubblico infantile di alcuni temi tabù quali il dolore, la sofferenza, l’assenza, la morte e la censura a cui spesso sono stati sottoposti. Il capitolo si sofferma, in particolare, sul tema della morte, cercando di tracciarne la presenza nella Letteratura per l’infanzia. Per permettere l’analisi di un così vasto tema, si è scelto di suddividere e analizzare alcune caratteristiche e simboli della morte presenti in racconti, romanzi e album illustrati dedicati al pubblico infantile. Infine, si è scelto di porre l’accento sulla pedagogia della morte, toccando il tema del lutto e della sepoltura. Il primo capitolo acquisisce importanza alla luce dell’analisi del racconto di Gonzalo Moure, nel quale queste tematiche sono molto presenti e vengono utilizzate senza ricorrere a censura. Il secondo capitolo analizza la vita dell’autore e propone i momenti più significativi della sua carriera artistica, professionale e personale, oltre al suo impegno sociale nell’associazione Bubisher a sostegno della causa saharawi. In questo capitolo troviamo, inoltre, un elenco dettagliato delle opere e delle collaborazioni letterarie dell’autore, un accenno al suo stile di scrittura e la trascrizione dell’intervista da me fatta in Spagna a settembre 2015. Nel terzo capitolo si propone l’analisi approfondita del racconto di Moure: l’aspetto paratestuale, le caratteristiche generali del libro, la trama, i personaggi, il tempo e lo spazio del racconto, così come i temi e i valori trattati. Sono inoltre presenti anche le interviste con l’illustratrice e con l’editor. Il quarto capitolo propone la traduzione del racconto En un bosque de hoja caduca, rispettando il layout della versione originale spagnola. Infine, il quinto capitolo vede il commento alla traduzione e le principali categorie di problemi linguistici riscontrati durante il processo traduttivo quali morfosintassi, lessico, toponimi e antroponimi, onomatopee, modi di dire e aspetti grafici.
Resumo:
In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.
Resumo:
La tecnologia MdP odierna risente di grosse limitazioni a causa di una inadeguata divulgazione, soprattutto a livello universitario, delle conoscenze sulle teorie dei processi e della progettazione di impianti ad essa legati. La conseguenza è l’accentramento del know-how all’interno delle aziende del settore (progettazione presse e impianti di sinterizzazione, sviluppo materie prime, progettazione stampi e cicli produttivi…) le quali, nel tempo, hanno creato al loro interno tecnici specializzati, laboratori di ricerca e sofisticati reparti R&D. Nonostante il risultato evidente oggi in Europa sia una buona preparazione tecnica da parte delle aziende operanti nel settore, la scarsa diffusione di conoscenze anche negli altri ambiti dell’ingegneria e della progettazione meccanica rende spesso difficile l’incontro tra due realtà che potrebbero invece aprire nuovi settori di produzione e/o il miglioramento di progetti noti. Questo lavoro è fondato sulla base di tali considerazioni e svolto interamente all’interno di una delle più importanti realtà industriali nazionali in questo campo: Sinteris S.p.A. (Bologna). Dopo una descrizione del processo classico, si passerà ad analizzare, tramite prove in laboratorio, il processo di calibratura di rotori pompa per circuiti lubrificanti in campo automotiv. Lo studio riguarda il rilievo e il confronto delle variazioni dimensionali ottenute a diverse percentuali di calibratura su rotori di diverse altezze (entro e oltre i limiti progettuali fino ad oggi realizzati in Sinteris) allo scopo di far luce sulle deformazioni plastiche che condizionano la conformità dei pezzi sinterizzati sottoposti a calibratura entro stampi rigidi di dimensioni note. Lo scopo ideale di questa ricerca è trovare una legge su base empirica che consenta all’Engineering di progettare stampi di calibratura e percentuali di schiacciamento che garantiscano, ad ogni montaggio, la conformità dimensionale di attuali e futuri progetti di pompe a lobi.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.