966 resultados para network testi legge di Zipf condizionata grado selettività
Resumo:
Il concetto di cella a eterogiunzione in silicio ha portato allo sviluppo di dispositivi in grado di convertire oltre il 25% dello spettro solare. Il raggiungimento di alte efficienze di conversione è dovuto alla ricerca nel campo dei vari strati a base di silicio cristallino, amorfo e nanocristallino impiegati per formare le giunzioni. In particolare, lo studio e l’ottimizzazione dello strato di emettitore in silicio amorfo o nanocristallino insieme all’inserimento di uno strato amorfo intrinseco passivante, ha permesso la realizzazione di celle con alte tensioni di circuito aperto. Questi materiali contengono tuttavia dei difetti legati alla struttura amorfa, che compromettono le prestazioni dei dispositivi abbassandone la corrente di cortocircuito. Una possibile soluzione al problema può essere ottenuta formando composti che incorporano elementi come azoto e ossigeno e aumentando il grado di cristallinità del materiale con un processo di annealing. In questa tesi viene studiato l’energy gap di campioni di Silicon Oxynitride (SiOxNy:H) in funzione delle diverse condizioni di crescita e di annealing attraverso il programma di simulazione spettroscopica Optical.
Resumo:
Il presente lavoro di tesi è finalizzato allo sviluppo di un dispositivo indossabile, e minimamente invasivo, in grado di registrare in maniera continua segnali legati all’attività elettromeccanica del muscolo cardiaco, al fine di rilevare eventuali anomalie cardiache. In tal senso il sistema non si limita alla sola acquisizione di un segnale ECG, ma è in grado di rilevare anche i toni cardiaci, ovvero le vibrazioni generate dalla chiusura delle valvole cardiache, la cui ampiezza è espressione della forza contrattile (funzione meccanica) del cuore. Il presente lavoro di tesi ha riguardato sia la progettazione che la realizzazione di un prototipo di tale dispositivo ed è stato svolto presso il laboratorio di Bioingegneria del Dipartimento di Medicina Specialistica Diagnostica e Sperimentale dell’Università di Bologna, sito presso l’Azienda Ospedaliero-Universitaria Policlinico Sant’Orsola-Malpighi. Il sistema finale consiste in un dispositivo applicabile al torace che, attraverso una serie di sensori, è in grado di rilevare dati legati alla meccanica del cuore (toni cardiaci), dati elettrici cardiaci (ECG) e dati accelerometrici di attività fisica. Nello specifico, il sensing dei toni cardiaci avviene attraverso un accelerometro in grado di misurare le vibrazioni trasmesse al torace. I tracciati, raccolti con l’ausilio di una piattaforma Arduino, vengono inviati, tramite tecnologia Bluetooth, ad un PC che, attraverso un applicativo software sviluppato in LabVIEW™, ne effettua l’analisi, il salvataggio e l’elaborazione in real-time, permettendo un monitoraggio wireless ed in tempo reale dello stato del paziente.
Resumo:
La matematica è un’attività umana che sembra non lasciare indifferente quasi nessuno: alcuni rimangono affascinati dalla sua ‘magia’, molti altri provano paura e rifiutano categoricamente persino di sentirla nominare. Spesso, non solo a scuola, si percepisce la matematica come un’attività distaccata, fredda, lontana dalle esigenze del mondo reale. Bisognerebbe, invece, fare in modo che gli studenti la sentano come una risorsa culturale importante, da costruire personalmente con tempo, fatica e soddisfazione. Gli studenti dovrebbero avere l’opportunità di riflettere sul senso di fare matematica e sulle sue potenzialità, attraverso attività che diano spazio alla costruzione autonoma, alle loro ipotesi e alla condivisione delle idee. Nel primo capitolo, a partire dalle difficoltà degli studenti, sono analizzati alcuni studi sulla straordinaria capacità della matematica di organizzare le nostre rappresentazioni del mondo che ci circonda e sull’importanza di costruire percorsi didattici incentrati sulla modellizzazione matematica. Dalla considerazione di questi studi, è stato elaborato un progetto didattico, presentato nel secondo capitolo, che potesse rappresentare un’occasione inconsueta ma significativa per cercare di chiarire l’intreccio profondo tra matematica e fisica. Si tratta di una proposta rivolta a studenti all’inizio del secondo biennio in cui è prevista una revisione dei problemi della cinematica attraverso le parole di Galileo. L’analisi di documenti storici permette di approfondire le relazioni tra grandezze cinematiche e di mettere in evidenza la struttura matematica di tali relazioni. Le scelte che abbiamo fatto nella nostra proposta sono state messe in discussione da alcuni insegnanti all’inizio della formazione per avere un primo riscontro sulla sua validità e sulle sue potenzialità. Le riflessioni raccolte sono state lo spunto per trarre delle considerazioni finali. Nelle appendici, è presente materiale di lavoro utilizzato per la progettazione e discussione del percorso: alcuni testi originali di Aristotele e di Galileo, le diapositive con cui la proposta è stata presentata agli studenti universitari e un esempio di protocollo di costruzione di Geogebra sul moto parabolico.
Resumo:
In questo lavoro di tesi si affronta una delle problematiche che si presentano oggi nell'impiego degli APR (Aeromobili a Pilotaggio Remoto): la gestione della safety. Non si può più, in altri termini, negare che tali oggetti siano parte integrante dello spazio aereo civile. Proprio su questo tema recentemente gli enti regolatori dello spazio aereo stanno proiettando i loro sforzi al fine di stabilire una serie di regolamenti che disciplinino da una parte le modalità con cui questi oggetti si interfacciano con le altre categorie di velivoli e dall'altra i criteri di idoneità perché anche essi possano operare nello spazio aereo in maniera sicura. Si rende quindi necessario, in tal senso, dotare essi stessi di un sufficiente grado di sicurezza che permetta di evitare eventi disastrosi nel momento in cui si presenta un guasto nel sistema; è questa la definizione di un sistema fail-safe. Lo studio e lo sviluppo di questa tipologia di sistemi può aiutare il costruttore a superare la barriera oggi rappresentata dal regolamento che spesso e volentieri rappresenta l'unico ostacolo non fisico per la categoria dei velivoli unmanned tra la terra e il cielo. D'altro canto, al fine di garantire a chi opera a distanza su questi oggetti di avere, per tutta la durata della missione, la chiara percezione dello stato di funzionamento attuale del sistema e di come esso può (o potrebbe) interagire con l'ambiente che lo circonda (situational awarness), è necessario dotare il velivolo di apparecchiature che permettano di poter rilevare, all'occorrenza, il malfunzionamento: è questo il caso dei sistemi di fault detection. Questi due fondamentali aspetti sono la base fondante del presente lavoro che verte sul design di un ridotto ma preponderante sottosistema dell'UAV: il sistema di attuazione delle superfici di controllo. Esse sono, infatti, l'unico mezzo disponibile all'operatore per governare il mezzo nelle normali condizioni di funzionamento ma anche l'ultima possibilità per tentare di evitare l'evento disastroso nel caso altri sottosistemi siano chiaramente fuori dalle condizioni di normale funzionamento dell'oggetto.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Il recente sviluppo commerciale di smartphone, tablet e simili dispositivi, ha portato alla ricerca di soluzioni hardware e software dotate di un alto livello di integrazione, in grado di supportare una potenza di calcolo e una versatilità di utilizzo sempre più crescenti, pur mantenendo bassi i consumi e le dimensioni dei dispositivi. Questo sviluppo ha consentito parallelamente a simili tecnologie di trovare applicazione in tanti altri settori, tra i quali quello biomedicale. Il lavoro esposto in questa tesi si inserisce nel contesto appena descritto e, in particolare, consiste nello sviluppo di un sistema WBAN ideato per garantire maggiore flessibilità, controllo e personalizzazione nella terapia riabilitativa dei pazienti affetti da Morbo di Parkinson. In questo campo è stata dimostrata l'efficacia, in termini di miglioramento delle condizioni di vita dell'individuo, dell'esercizio fisico e in particolare di una serie di fisioterapie riabilitative specifiche. Tuttavia manca ancora uno strumento in grado di garantire più indipendenza, continuità e controllo,per le persone affette da MP, durante l'esecuzione di questi esercizi; senza che sia strettamente necessario l'intervento di personale specializzato per ogni seduta fisioterapeutica. Inoltre manca un sistema che possa essere comodamente trasportato dal paziente nelle attività di tutti i giorni e che consenta di registrare e trasmettere eventi particolari legati alla patologia, come blocchi motori e cadute accidentali. Il presente lavoro di tesi tratta della realizzazione di un Firmware per la gestione di un Nodo Centrale che funge da master in una rete WBAN a tre nodi. L'obbiettivo è quello di integrare in tale firmware le funzioni di acquisizione dati dai sensori on-board, comunicazione tra i nodi della rete e gestione delle periferiche hardware secondarie; in particolare per lo sviluppo è stato usato un Sistema Operativo Real-Time (RTOS) del quale sono esposti vantaggi e svantaggi dell’utilizzo.
Resumo:
Nell'ambito del processo di riordino e ampliamento del Museo Nazionale di Ravenna, si è sviluppata una riflessione progettuale capace di tenere in considerazione soprattutto le potenzialità che questo museo offre dal punto di vista culturale. Il museo tradizionale è spesso un magazzino sovraffollato di opere. Obiettivi importanti sono la creazione di percorsi di visita semplici e preordinati che migliorino la comprensione delle opere e del contesto. Si è deciso di conferire importanza al rapporto tra contenitore e contenuto musealizzando alcune parti del complesso. Con questo intervento, il museo acquista caratteri di modernità e di efficienza in grado di far fronte alle nuove esigenze museografiche.
Resumo:
Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.
Resumo:
Il lavoro di tesi ha preso spunto da un fenomeno franoso avvenuto a Porretta Terme (provincia di Bologna), nell’autunno 2008, a causa di abbondanti precipitazioni, in tale occasione si innescò una colata rapida di detriti che invase la strada statale n. 64 e lambì la ferrovia che collega l’Emilia Romagna e la Toscana. I detriti colpirono anche un’abitazione, senza per fortuna causare perdite umane ne danni ingenti, ma l’evento riscosse numerose attenzioni da parte della popolazione locale, preoccupata che fenomeni del genere potessero ripetersi anche in altre zone e senza alcun preavviso. L’evento allertò anche la Protezione Civile regionale che da subito si interessò all’applicazione di metodi in grado di prevedere la suscettività areale da frane di questo tipo. Metodi previsionali per colate rapide sono stati sviluppati negli ultimi anni in diverse università sia in Europa sia negli Stati Uniti d’America. Lo scopo è quello di prevedere le possibili zone di innesco e individuare le soglie di precipitazione critica in modo da realizzare carte di suscettività a scopo di pianificazione territoriale e mitigazione del rischio. Il lavoro, durato diversi mesi, è passato attraverso diverse fasi. In primis si è proceduto a sopralluoghi di campo al fine di inquadrare l’area oggetto di studio dal punto di vista geologico e geomorfologico. Successivamente è stata svolta una fase di campionamento sul terreno; tramite una trivella manuale sono stati effettuati numerosi carotaggi (circa 60) sparsi sull’intero versante oggetto di studio, al fine di ricavare un dato relativo allo spessore del suolo. Inoltre sono stati raccolti dei campioni di terreno, analizzati successivamente in laboratorio al fine di ricavarne le curve granulometriche e alcuni dati caratterizzanti. Terminata la fase sul terreno, si è provveduto ad effettuare le prove di laboratorio (curve granulometriche, limiti di Attemberg, etc). Grazie ai dati raccolti, è stato possibile applicare un modello previsionale di stabilità superficiale, TRIGRS 2.0 basato sull’infiltrazione in un mezzo non saturo di una precipitazione di durata finita. Particolare attenzione è stata rivolta ai metodi per la previsione dello spessore del suolo (Z Model, S Model, Sexp Model) e alla loro influenza nella suscettività da frana superficiale.
Resumo:
I rivelatori a stato solido per raggi X hanno applicazioni in diversi ambiti, in particolare sono ampiamente utilizzati in ambito medico, in ambito industriale e come dispositivi per la sicurezza. Essendo molto diffusi nella nostra quotidianità si è sempre alla ricerca di nuovi materiali e di nuove tecniche di fabbricazione in grado di ridurne i costi di produzione. Le ricerche attuali sono incentrate sullo studio di nuovi materiali sensibili ai raggi X, l'attenzione è particolarmente diretta ai semiconduttori organici. Questi materiali risultano molto interessanti in quanto sono solubili in molti solventi, tale caratteristica permette lo sviluppo di nuove tecniche di fabbricazione a basso costo per rivelatori di grandi aree. Una delle tecniche di maggiore interesse è la stampa a inchiostro su substrati flessibili e trasparenti. In questa tesi si analizzeranno le proprietà elettriche, in particolare la variazione del segnale di corrente in seguito all'irraggiamento da raggi X, di alcuni campioni costituiti da TIPS-pentacene. Ci si soffermerà in particolare sui metodi con cui tali cristalli sono stati deposti quali inkjet e drop-cast.
Resumo:
Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.
Resumo:
Grazie alla crescente evoluzione tecnologica è oggi possibile, tramite Head Mounted Display (HMD), vivere una realtà virtuale ricca nei dettagli, interattiva ed immersiva. L’avanzamento in questo settore ha infatti portato a una vera e propria rivoluzione, aprendo la possibilità di utilizzare questa tecnologia in molteplici ambiti. L’ostacolo riscontrato è che a un progresso di tale entità non si associa un adeguato aggiornamento e perfezionamento riguardo alle metodologie di interazione con oggetti 3D, dell’utilizzo di interfacce grafiche e del generale design ambientale. La diretta conseguenza di questo mancato aggiornamento è quella di indebolire o addirittura annullare l’effetto presenza dell'HMD, requisito indispensabile che consente all’utente di immergersi sensorialmente nel contesto simulato. L’obiettivo di questo studio consiste nel comprendere cosa è necessario tenere in considerazione e quali regole vanno cambiate per poter mantenere un'alta sensazione di presenza per l'utente all’interno di una realtà virtuale. A questo scopo è stato creato un ambiente virtuale 3D in grado di supportare l'utilizzo di un HMD, l'Oculus Rift, e di diversi dispositivi di input in grado di consentire controllo tramite movimenti naturali, il Razer Hydra ed il Leap Motion, in modo da poter effettuare un'analisi diretta sul livello del fattore presenza percepito nell'effettuare diverse interazioni con l'ambiente virtuale e le interfacce grafiche attraverso questi dispositivi. Questa analisi ha portato all'individuazione di molteplici aspetti in queste tipologie di interazioni e di design di intrefacce utente che, pur essendo di uso comune negli ambienti 3D contemporanei, se vissuti in un contesto di realtà virtuale non risultano più funzionali e indeboliscono il senso di presenza percepito dall'utente. Per ognuno di questi aspetti è stata proposta ed implementata una soluzione alternativa (basata su concetti teorici quali Natural Mapping, Diegesis, Affordance, Flow) in grado di risultare funzionale anche in un contesto di realtà virtuale e di garantire una forte sensazione di presenza all'utente. Il risultato finale di questo studio sono quindi nuovi metodi di design di ambienti virtuali per realtà aumentata. Questi metodi hanno permesso la creazione di un ambiente virtuale 3D pensato per essere vissuto tramite HMD dove l'utente è in grado di utilizzare movimenti naturali per interagire con oggetti 3D ed operare interfacce grafiche.
Resumo:
Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.
Resumo:
Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.
Resumo:
L’uso dei materiali compositi è andato aumentando negli ultimi decenni per la loro elevata rigidezza, la resistenza specifica e il possibile risparmio, notevole in termini di peso dell’intera struttura. Tali materiali introducono però nuove problematiche riguardanti le modalità di danneggiamento e il comportamento a fatica. Mentre questi fenomeni sono relativamente ben compresi nei materiali metallici, per una struttura in composito non esistono ancora modelli in grado di predire con sufficiente affidabilità l’evoluzione del danneggiamento. Negli ultimi anni la ricerca si è focalizzata sullo sviluppo di sistemi in grado di rilevare la presenza e l’evoluzione del danno, definiti Structural Health Monitoring Systems, ovvero sistemi di monitoraggio strutturale. Il danneggiamento strutturale può così essere individuato e identificato per mezzo di sensori distribuiti integrati nella struttura stessa, aventi la possibilità di trasmettere queste informazioni a un sistema di analisi esterno permettendo di valutare lo stato di degrado della struttura in tempo reale. In questo contesto si inseriscono le attività di ricerca sulle strutture intelligenti che, inglobando al loro interno opportune tipologie di sensori e attuatori, sono in grado di monitorare l’ambiente fisico operativo, raccoglierne e interpretarne le informazioni per poi rispondere ai cambiamenti della struttura in modo appropriato attraverso gli attuatori. L’impiego di sensori e attuatori inglobati nelle strutture offre molteplici vantaggi rispetto ai sistemi di trasduzione e attuazione convenzionali. L’attività di ricerca condotta in questa tesi è rivolta all’indagine di tecniche di SHM per mezzo di sensori a fibra ottica. Essi presentano molteplici peculiarità che li rendono i candidati ideali per queste applicazioni. Esistono diversi tipi di sensori che utilizzano le fibre ottiche. Nel presente lavoro si sono utilizzati sensori di deformazione basati sui reticoli di Bragg (FBG) chirped. Questi sensori sono costituiti da un reticolo inscritto all’interno della fibra, che ha l’effetto di riflettere solo alcune lunghezze d’onda della luce incidente. Se le proprietà geometriche del reticolo cambiano per effetto di una deformazione, cambia anche la forma dello spettro riflesso. Inoltre, con il tipo di sensore usato, è possibile correlare lo spettro con la posizione di eventuali danneggiamenti interni al materiale. Gli obbiettivi di questa ricerca sono di verificare gli effetti della presenza di una fibra ottica sulle caratteristiche meccaniche di un laminato e di trovare un legame tra la risposta in frequenza del sensore FBG e lo stato tensionale e il grado di danneggiamento di un componente in composito.