442 resultados para Metodo de intervencao


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi sono state applicate le tecniche del gruppo di rinormalizzazione funzionale allo studio della teoria quantistica di campo scalare con simmetria O(N) sia in uno spaziotempo piatto (Euclideo) che nel caso di accoppiamento ad un campo gravitazionale nel paradigma dell'asymptotic safety. Nel primo capitolo vengono esposti in breve alcuni concetti basilari della teoria dei campi in uno spazio euclideo a dimensione arbitraria. Nel secondo capitolo si discute estensivamente il metodo di rinormalizzazione funzionale ideato da Wetterich e si fornisce un primo semplice esempio di applicazione, il modello scalare. Nel terzo capitolo è stato studiato in dettaglio il modello O(N) in uno spaziotempo piatto, ricavando analiticamente le equazioni di evoluzione delle quantità rilevanti del modello. Quindi ci si è specializzati sul caso N infinito. Nel quarto capitolo viene iniziata l'analisi delle equazioni di punto fisso nel limite N infinito, a partire dal caso di dimensione anomala nulla e rinormalizzazione della funzione d'onda costante (approssimazione LPA), già studiato in letteratura. Viene poi considerato il caso NLO nella derivative expansion. Nel quinto capitolo si è introdotto l'accoppiamento non minimale con un campo gravitazionale, la cui natura quantistica è considerata a livello di QFT secondo il paradigma di rinormalizzabilità dell'asymptotic safety. Per questo modello si sono ricavate le equazioni di punto fisso per le principali osservabili e se ne è studiato il comportamento per diversi valori di N.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tematiche di violenza e aggressione sono oggi di estrema attualità e sempre più spesso se ne sente parlare al telegiornale o in programmi specializzati. Aggressione per molestie, furto o per scopi razziali; le motivazioni e i casi d'interesse sono vari e spesso hanno inizio senza alcun apparente motivo e la sensazione di sentirsi sempre meno al sicuro, anche appena usciti di casa, può degenerare ad una vera e propria paranoia. L'unica cosa che è sempre al nostro fianco, oggi giorno, sono i nostri smartphone, che risultano sempre più sofisticati e intelligenti; perché, allora, non provare ad usarli come protezione? L'obiettivo su cui si è incentrata questa tesi è, appunto, il riconoscimento di un'aggressione basata sull'analisi della situazione in cui si trova l'utente, attraverso l'uso dei sensori messi a disposizione dagli odierni smartphone in circolazione. Esistono già numerose applicazioni per la sicurezza personale, ma il metodo utilizzato per la segnalazione di un'aggressione è sempre basato sulla pressione di un pulsante o un'azione particolare che l'utente deve svolgere. L'applicazione creata in questo studio, invece, cerca di riconoscere le situazioni di pericolo osservando i movimenti dell'utente e basa il riconoscimento sulla presenza di situazioni fuori dalla normale quotidianità che, attraverso dei "controlli di conferma", permettono di riconoscere il pericolo in maniera completamente autonoma. Si è deciso di approcciarsi ad un riconoscimento autonomo, in quanto, non sempre si ha la possibilità, o il tempo, di prendere in mano il proprio smartphone per avvisare del pericolo e molte volte il panico potrebbe far perdere la lucidità alla vittima, il cui primo pensiero è quello di difendersi e scappare e non utilizzare il dispositivo. Altre volte, distrarsi anche per un secondo, potrebbe essere fatale per la propria sicurezza. Per questo motivo si è ricercato un'approccio di riconoscimento basato "sull'osservazione" di ciò che sta accadendo, piuttosto che sull'attesa di un segnale. L'obiettivo di riconoscimento prefissato è stato quello delle aggressioni in strada e i sensori utilizzati a questo scopo sono stati: accelerometro, giroscopio, GPS e microfono. Attraverso la combinazione di questi sensori, infatti, è stato possibile riconoscere cadute (di forte entità), urla e probabili spinte/strattoni. Si sono studiate, per tanto, le caratteristiche che collegassero queste tipologie di situazioni per ogni sensore preso in esame, costruendo un'approccio di riconoscimento risultato valido per gli obiettivi minimi prefissati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi vengono proposte una modellazione di un quadrotor affetto da un campo vettoriale incognito aerodinamico e la sua identificazione basata su non linear geometric approach e su reti neurali a funzione di base radiale (RBF). Il non linear geometric approach viene utilizzato per il disaccoppiamento delle componenti incognite aerodinamiche mentre le modellazione RBF dei coefficienti permette di applicare un algoritmo ai minimi quadrati per l'identificazione del sistema. Infine viene implementato un simulatore in ambiente MATLAB Simulink per la validazione della metodologia. Le simulazioni effettuate dimostrano la bontà del metodo proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Applicazione del metodo della "Progettazione dinastica" al caso Marpatech s.r.l., azienda inserita nell'ambito del packaging. Tale metodo viene applicato per la riorganizzazione della produzione, in particolare, in questo caso, della metodologia di lavoro all'interno dell'ufficio tecnico. Si è analizzata la varietà dei componenti che costituiscono le linee di trasporto facenti parte delle famiglie "trasporto sfuso" e "trasporto cartoni", per poi definire un capostipite della futura dinastia di prodotti e progettando componenti standard con logiche di modularità, range, fisso/variabile. Infine si sono applicati i risultati ottenuti ad una commessa realizzata nell'anno 2013 ed è stato fatto un confronto tra i due casi. L'obiettivo conseguito è stato ridurre la varietà dei prodotti, definendo il capostipite, e definendo i principali componenti standard, opzionali e speciali, e ridurre i costi e i tempi imputabili all'ufficio tecnico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene effettuata una panoramica sull'apprendimento di alberi di decisione (un particolare metodo di apprendimento supervisionato) e sulle varie tecniche per poterne migliorare le prestazioni. Vengono poi descritti alcuni algoritmi e ne vengono confrontate le prestazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi Magistrale è frutto di un'attività di ricerca, che consiste nella realizzazione di un'indagine geofisica di tipo geoelettrico (ERT Electrical Resistivity Tomography). Lo scopo è quello di caratterizzare l'idrogeologia di una porzione limitata dell'acquifero freatico costiero ravennate, situato nella Pineta Ramazzotti di Lido di Dante, cercando di apportare nuove conoscenze sulle dinamiche che favoriscono l'ingressione marina (problema di forte attualità)che potrebbero contribuire a migliorare la gestione e la tutela delle risorse idriche. In questo contesto la tesi si pone come obiettivo quello di valutare l'applicabilità del metodo geoelettrico verificando se questo è in grado d'individuare efficacemente l'interfaccia acqua dolce-salata e le strutture presenti nel sottosuolo, in due tipologie di ambiente, con e senza un sistema di dune. I risultati dimostrano che dal punto di vista scientifico, il metodo geoelettrico ha verificato il principio di Ghyben-Herzberg, il quale suppone che vi sia una relazione inversa tra quota topografica e limite superiore della zona satura con acqua salata, inoltre si è riscontrata una certa stagionalità tra i profili acquisiti in momenti diversi (influenzati dalla piovosità). Mentre dal punto di vista tecnologico, il metodo, è di difficile utilizzo negli ambienti di transizione tanto ché chi si occupa professionalmente di questi rilievi preferisce non eseguirli. Questo è dovuto alla mancanza di un protocollo per le operazioni di acquisizione e a causa dell'elevato rumore di fondo che si riscontra nelle misurazioni. Con questo studio è stato possibile calibrare e sviluppare un protocollo, utilizzabile con diverse spaziature tra gli elettrodi, che è valido per l'area di studio indagata. Si è riscontrato anche che l'utilizzo congiunto delle informazioni delle prospezioni e quelle dei rilievi classici (monitoraggio della superficie freatica, parametri chimico-fisici delle acque sotterranee, rilievo topografico e sondaggi geognostici), generino un prodotto finale di semplice interpretazione e di facile comprensione per le dinamiche in atto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I materiali plastici trovano ampie applicazioni in ogni aspetto della vita e delle attività industriali. La maggior parte delle plastiche convenzionali non sono biodegradabili e il loro accumulo è una minaccia per il pianeta. I biopolimeri presentano vantaggi quali: la riduzione del consumo delle risorse e la riduzione delle emissioni CO2, offrendo un importante contributo allo sviluppo sostenibile. Tra i biopolimeri più interessanti troviamo il poliidrossibutirrato (PHB), l’oggetto di questo studio, che è il più noto dei poliidrossialcanoati. Questo polimero biodegradabile mostra molte somiglianze con il polipropilene. La tesi consiste nell’applicazione del Life Cycle Assessment a processi di estrazione del PHB da colture batteriche. In essa sono valutate le prestazioni ambientali di 4 possibili processi alternativi, sviluppati dal CIRI EA, che utilizzano il dimetilcarbonato (DMC) e di 3 processi che utilizzano solventi alogenati (cloroformio, diclorometano, dicloroetano). Per quanto riguarda i processi che utilizzano come solvente di estrazione il DMC, due sono gli aspetti indagati e per i quali differiscono le alternative: la biomassa di partenza (secca o umida), e il metodo di separazione del polimero dal solvente (per evaporazione del DMC oppure per precipitazione). I dati primari di tutti gli scenari sono di laboratorio per cui è stato necessario realizzare un up scaling industriale di tutti i processi. L’up scaling è stato realizzato in collaborazione con il Dipartimento di Ingegneria Civile Chimica Ambientale e dei Materiali. La valutazione delle prestazioni ambientali è stata fatta rispetto a tutte le categorie d’impatto raccomandate dall’Handbook della Commissione Europea, di queste solo alcune sono state analizzate nel dettaglio. Tutti i risultati mostrano un andamento simile, in cui gli impatti dei processi che utilizzano DMC sono inferiori a quelli dei solventi alogenati. Fra i processi che impiegano DMC, l’alternativa più interessante appare quella che impiega biomassa di partenza secca e raccolta del PHB per precipitazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel campo dell’industria chimica la ricerca si è mossa in direzione di rendere i processi più sostenibili. Ciò viene effettuato considerando le linee guida della green chemistry. In questo contesto si colloca la metodologia LCA che valuta l’impatto ambientale associato ad un processo o un prodotto, comprendendo tutto il suo ciclo di vita. Nel presente lavoro di tesi si studia l’applicazione della LCA alla sintesi industriale di anidride maleica (AM), che viene ottenuta tramite reazione di ossidazione del benzene o dell’n-butano. Nello studio si sono modellate tre diverse vie di sintesi dell’AM considerando il processo di produzione che parte da benzene e il processo di produzione da butano con due diversi tipi di reattore: il letto fisso e il letto fluido (processo ALMA). Negli scenari si considerano le fasi di produzione dei reagenti e si è modellata la fase della reazione di ossidazione e l’incenerimento dei sottoprodotti e del reagente non convertito. Confrontando i tre processi, emerge che al processo che parte da benzene sono associati gli impatti globali maggiori mentre il processo ALMA ha un minore carico ambientale. Il processo da benzene risulta avere maggiori impatti per le categorie Cambiamento climatico, Formazione di particolato e Consumo dei metalli. Il processo da butano a tecnologia a letto fisso presenta invece maggiori impatti per le categorie Tossicità umana e Consumo di combustibili fossili, dovuti alla maggiore richiesta energetica effettuata dal processo di ossidazione del butano con tecnologia a letto fisso e alla richiesta di combustibile ausiliario per la fase di incenerimento. Tale risultato emerge anche dall’analisi effettuata con il Cumulative Energy Demand. Al processo ALMA sono associati gli impatti inferiori in assoluto, nonostante abbia una resa inferiore al processo che utilizza il letto fisso. I risultati dell’analisi LCA sono stati confermati dall’analisi delle incertezze, realizzata con il metodo statistico Monte Carlo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.