1000 resultados para Misurazione coefficienti di attrito filetti sottotesta forza di serraggio


Relevância:

50.00% 50.00%

Publicador:

Resumo:

La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il morbo di Alzheimer è ancora una malattia incurabile. Negli ultimi anni l'aumento progressivo dell'aspettativa di vita ha contribuito a un'insorgenza maggiore di questa patologia, specialmente negli stati con l'età media più alta, tra cui l'Italia. La prevenzione risulta una delle poche vie con cui è possibile arginarne lo sviluppo, ed in questo testo vengono analizzate le potenzialità di alcune tecniche di Machine Learning atte alla creazione di modelli di supporto diagnostico per Alzheimer. Dopo un'opportuna introduzione al morbo di Alzheimer ed al funzionamento generale del Machine Learning, vengono presentate e approfondite due delle tecniche più promettenti per la diagnosi di patologie neurologiche, ovvero la Support Vector Machine (macchina a supporto vettoriale, SVM) e la Convolutional Neural Network (rete neurale convoluzionale, CNN), con annessi risultati, punti di forza e principali debolezze. La conclusione verterà sul possibile futuro delle intelligenze artificiali, con particolare attenzione all'ambito sanitario, e verranno discusse le principali difficoltà nelle quali queste incombono prima di essere commercializzate, insieme a plausibili soluzioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’intensificarsi della concorrenza globale, il rapido sviluppo delle tecnologie e le mutevoli richieste dei clienti hanno portato a una tendenza verso maggiori differenze nei requisiti dei clienti, maggiore necessità di personalizzazione, cicli di vita dei prodotti sempre più brevi e la necessità di una rapida introduzione di nuovi prodotti. I produttori devono tenere conto di queste nuove tendenze e devono essere in grado di fronteggiarle per ottenere un vantaggio competitivo. I sistemi di produzione riconfigurabili RMS sono adatti nella gestione di queste richieste in quanto il sistema può essere continuamente riconfigurato per adattarsi alle richieste del mercato in termini di volumi richiesti e personalizzazione esatta dai clienti. Lo sviluppo effettivo di RMS risulta, ad oggi, molto impegnativo per le aziende e questo è il principale motivo per il quale si ricorre ancora a sistemi di produzione maggiormente tradizionali come DMS e FMS. Questo elaborato definisce le caratteristiche fondamentali ed i principi di progettazione dei RMS, facendone un confronto con quelle dei sistemi DMS e FMS. Successivamente, partendo da un esempio industriale e seguendo i principi fondamentali dei RMS, si sviluppano dei concept di linea produttiva, con celle e stazioni idonee allo sviluppo di un sistema riconfigurabile. In ultima analisi, presso il laboratorio dell’Università di Aalborg, in Danimarca, vengono condotte prove pratiche sulla linea di produzione riconfigurabile Festo. Queste hanno permesso di mettere in luce gli aspetti di forza e le criticità di tali sistemi. Infine, vengono proposte idee per rendere più efficaci i RMS e vengono brevemente illustrate altre possibili tipologie di riconfigurazione in cui viene completamente stravolto il concetto di linea di produzione odierno.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’Industria 4.0 richiede sempre più tecnologie con un notevole grado di flessibilità, in modo da garantire il più alto livello di integrazione uomo-macchina e macchina- macchina. In quest’ottica, l’avvento della robotica collaborativa, ha agevolato il pro- cesso. I robot collaborativi (cobot) possono essere facilmente installati all’interno del- le linee di assemblaggio/produzione, senza necessità di barriere che vietino l’accesso agli operatori. Tra i tanti compiti a cui possono asservire i cobot, ci sono quelli dedica- ti all’ispezione delle varie macchine (e.g. microfermate di emergenza), in cui di solito, l’apertura del pannello di protezione è affidata ad un cobot montato a bordo di un AGV. È in questo contesto che si inserisce l’elaborato di tesi, volto al controllo in forza di un robot collaborativo per la movimentazione di un pannello di protezione di una mac- china automatica. In particolare, per ragioni logistiche e di ingombro, un simulacro del pannello di protezione è stato realizzato in scala, mentre il controllo real-time del cobot è stato implementato utilizzando ROS (Robot Operating System), piattaforma disponibile in modalità open-source.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo elaborato si analizzano i principali metodi di rappresentazione delle nozioni di incertezza e di dibattito all’interno della Knowledge Base di Wikidata. In particolare, quali sono i metodi per rappresentare tali nozioni, quali tra questi metodi è il più utilizzato, quali offrono un'accuratezza maggiore (ovvero delle informazioni aggiuntive sulla motivazione del perché un determinato statement è in discussione) e infine la presenza di possibili correlazioni tra i vari metodi. Innanzitutto, è stato svolto uno studio preliminare volto a individuare tali metodi in Wikidata. In seguito, sono stati estratti e costruiti quattro dataset rappresentativi del dominio descritto che contenessero le rappresentazioni in esame. Ogni dataset, rappresentativo di un metodo di rappresentazione, è stato prima analizzato singolarmente e in seguito è stata ricercata la presenza degli altri metodi nello stesso. Infine sono stati presentati gli sviluppi futuri, i punti di forza e le debolezze del lavoro svolto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il progetto di tesi nasce dall’interesse e dalla passione verso il mondo della Cybersecurity, che da sempre segna il mio percorso accademico e di vita, ma che durante questo ultimo anno di università ha avuto particolare rilevanza. Il progetto è stato svolto con il supporto e la supervisione del team Railway dell’azienda ALTEN Italia presso la sede di Bologna. Il lavoro di tesi mira allo sviluppo di un componente software che rappresenta un livello aggiuntivo di sicurezza nella comunicazione tra sistemi di bordo e di terra. In particolare, il progetto si pone come obiettivo la creazione di un Bridge, ovvero un componente software indipendente e configurabile che si interfaccia sia con il client che con il server, con lo scopo di garantire autenticità e cifratura dei messaggi scambiati tra le due entità. Inoltre, la potenza del Bridge sta nel fatto che nasce come possibile soluzione ai problemi di sicurezza informatica in ambito ferroviario, ma la sua applicabilità può essere estesa anche ad altri settori in cui sia presente una comunicazione client/server da rendere sicura. Infatti, tale software risulta particolarmente flessibile e adattabile, attraverso l’impostazione a priori di parametri di configurazione, in base al tipo di comunicazione che si desidera implementare tra le due entità. Per questo motivo, si ritiene che la forza del progetto sia la possibilità di fornire una soluzione software per proteggere l’infrastruttura critica dei trasporti ferroviari da eventuali minacce informatiche, ma anche la capacità adattiva del Bridge, in grado di svolgere le sue funzioni di sicurezza in un ampio ventaglio di ambiti di applicazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I sensori indossabili rappresentano una frontiera della ricerca scientifica e, allo stesso tempo, a livello commerciale sono un nuovo mercato emergente. La possibilità di studiare diversi parametri fisiologici con dispositivi versatili e di dimensioni ridotte è importante per raggiungere una comprensione più profonda dei diversi fenomeni che avvengono nel nostro corpo. In maniera simile, la composizione dell’essudato di una ferita è finemente legata all’evoluzione del processo di guarigione, che comporta diversi meccanismi di rigenerazione del tessuto connettivo e dell’epitelio. Grazie ai dispositivi indossabili, si apre la possibilità di monitorare i componenti chiave di questi processi. I wearable devices costituiscono quindi sia uno strumento diagnostico, che uno strumento clinico per l’identificazione e la valutazione di strategie terapeutiche più efficienti. Il mio lavoro di tirocinio si è incentrato sulla fabbricazione, caratterizzazione e sperimentazione delle performance di transistor elettrochimici a base organica (OECT) tessili per la misurazione dei livelli di pH ed acido urico. L’obbiettivo del gruppo di ricerca è quello di realizzare un cerotto intelligente che abbia due diversi elementi sensibili, uno per l’acido urico e l’altro per la concentrazione idrogenionica. Per il raggiungimento di tale scopo, si è sfruttato uno dei semiconduttori organici più utilizzati e studiati nell’ultimo periodo, il PEDOT, ovvero il poli(3,4-etilen-diossi-tiofene), che risulta anche uno dei materiali principalmente impiegati nella ricerca sui sensori tessili.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Background: Negli ultimi anni si è verificato un significativo aumento dell’aspettativa di vita che ha portato ad un incremento dell’età media della popolazione e di conseguenza un maggior rischio di cadere. Ricercare una strategia per promuovere il mantenimento della propria salute e ridurre le cadute risulta quindi di fondamentale importanza. Nasce così il programma LiFE basato sull’integrazione di attività di forza, equilibrio e PA all’interno della quotidianità. Obiettivo: Ricercare una strategia efficace a lungo termine ed economicamente sostenibile per ridurre le cadute nell’anziano e le conseguenze ad esse correlate. Materiali e metodi: Per la realizzazione di questa revisione sistematica è stato seguito il PRISMA Statement. Sono stati ricercati Trial Clinici Randomizzati che confrontassero la versione originale di LiFE a quella di gruppo gLiFE all’interno del sito dello studio e alcune banche dati. Il rischio di Bias di ogni articolo incluso è stato valutato tramite la PEDro scale. Risultati: Sono stati inclusi 3 articoli tramite i quali si è studiata l’efficacia, l’aderenza ed il costo dei due programmi analizzati. Non sono state dimostrate differenze statisticamente significative né per efficacia né per aderenza. Il costo economico totale per ogni partecipante al gruppo gLiFE è risultato inferiore in entrambi gli studi che lo hanno analizzato rispetto ai partecipanti a LiFE. Dividendo il costo totale in spesa a carico del partecipante e spesa a carico della società, risulta essere conveniente l’applicazione di gruppo per il singolo ma non per la società. Conclusioni: Il protocollo gLiFE è comparabile al protocollo LiFE in termini di efficacia, aderenza e costo. Si dovrebbe dare la possibilità agli anziani di poter scegliere il programma più adatto a loro in base alle loro caratteristiche ed esigenze. Non essendoci valutazioni a lungo termine sono necessari ulteriori studi per confrontare il costo-efficacia fra LiFE e gLiFE ma anche fra altri protocolli.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Background: Attualmente, diversi approcci riabilitatavi vengono proposti per il miglioramento del dolore e della funzione a seguito di intervento chirurgico alla spalla. La teleriabilitazione si è rivelata una valida alternativa per l’erogazione dei servizi riabilitativi a distanza: grazie all’utilizzo delle tecnologie di telecomunicazione, è possibile fornire consulenza, valutazione, monitoraggio, intervento e educazione, superando le barriere geografiche, temporali, sociali ed economiche. Obiettivo: Lo scopo della revisione è valutare le prove di efficacia presenti in letteratura in merito all’utilizzo della teleriabilitazione per il miglioramento funzionale dei pazienti operati di spalla. Metodi: La revisione è stata redatta secondo la checklist del PRISMA statement. La ricerca è stata condotta da aprile a settembre 2022, consultando le banche dati Cochrane Library, PubMed e PEDro. La ricerca è stata limitata a studi primari sperimentali e quasi, con full-text reperibile in lingua italiana o inglese e senza limiti temporali, inerenti soggetti operati alla spalla trattati con diverse modalità di teleriabilitazione. Come elemento di confronto è stato incluso qualsiasi tipo di intervento riabilitativo convenzionale. La qualità metodologica è stata valutata con la PEDro scale. Risultati: sono stati inclusi 4 RCT e 1 CCT, che hanno indagato misure di outcome relative a: dolore, mobilità articolare, forza, abilità funzionale e qualità della vita. Dall’analisi qualitativa dei risultati degli studi si è osservato che in tutti i gruppi sperimentali si sono ottenuti miglioramenti significativi negli outcome d’interesse; in due studi è stata evidenziata una superiorità statisticamente significativa della teleriabilitazione. Conclusioni: Nonostante la revisione non sia giunta a risultati generalizzabili e di validità assoluta, la teleriabilitazione ha dimostrato di essere una modalità sicura ed efficace nel miglioramento clinico e funzionale dei soggetti operati alla spalla.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La lesione del midollo spinale (LM) è una complessa condizione fisica che racchiude in sé sfide di carattere biomedico nonché etico-giuridico. La complessità della LM nonché la diversificazione delle esperienze dei singoli soggetti affetti da LM rendono questo un topic di grande interesse per la ricerca biomedicale, in relazione a nuovi metodi di cura e di riabilitazione dei soggetti. In particolare, la sinergia tra i saperi medico, informatici e ingegneristici ha permesso di sviluppare nuove tecnologie di comunicazione e di controllo neurologico e motorio che, capaci di sopperire a deficit cerebrali e/o motori causati da LM, consentono ai pazienti di avere una qualità di vita sensibilmente migliore, anche in termini di autonomia. Tra queste nuove tecnologie assistive primeggiano per efficacia e frequenza di utilizzo le Brain Computer Interfaces (BCI), strumenti ingegneristici che, attraverso la misurazione e l’analisi di segnali provenienti dall’attività cerebrale, traducono il segnale registrato in specifici comandi, rappresentando per l’utente con LM un canale di comunicazione con l’ambiente esterno, alternativo alle normali vie neurali. In questo elaborato l’analisi di due sperimentazioni, una su scimmia l’altra su uomo, entrambi affetti da LM, con differenti sistemi di monitoraggio dell’attività neurale, ha permesso di evidenziare un limite della ricerca sul topic: nonostante i promettenti risultati ottenuti su primati non umani, il carattere invasivo del sistema BCI–EES rende difficile traslare la sperimentazione su uomo. La sperimentazione su LM pone delle sfide anche dal punto di vista etico: sebbene siano auspicati lo sviluppo e l’applicazione di metodi alternativi alla sperimentazione animale, l’impiego di primati non umani appare ancora una scelta obbligata nel campo della ricerca di soluzioni terapeutiche finalizzate al ripristino della funzione locomotoria, per via della stretta affinità in termini di conformazione fisica, genetica e anatomica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La città di Bologna è sicuramente famosa per le sue due torri, ma anche per la fitta rete idraulica ormai nascosta sotto le strade e sotto gli edifici. I primi canali di Bologna furono realizzati tra il XII e il XVI secolo a seguito della costruzione delle due opere fondamentali: le chiuse di San Ruffillo e di Casalecchio. Queste due opere di presa servivano e, servono ancora oggi, ad alimentare i canali del Navile, del Reno, del Savena, del Cavaticcio e delle Moline. Oltre a questi canali alimentati dalle acque dei fiumi, sotto la città di Bologna scorrono torrenti che drenano le acque prevalentemente meteoriche della zona pedecollinare della città, come ad esempio il torrente Ravone. Il presente lavoro di tesi ha come caso di studio proprio quest’ultimo. Il Ravone, in origine, scorreva a cielo aperto attraversando la città, ma per permettere l’urbanizzazione fuori dalle mura, è stato tombato in diversi tratti e in diverse epoche. La scarsità di informazioni riguardo la sua esatta posizione e la mancanza di elaborati grafici in grado di descriverne la sua geometria, ha spinto le autorità a richiedere un accurato rilievo al LARIG dell’UniBo. Le operazioni di rilievo si sono svolte con l’uso di tecniche geomatiche per la modellazione tridimensionale come l’aerofotogrammetria e l’acquisizione con laser scanner terrestre. Al fine di georeferenziare il dato acquisito, si è ricorso a tecniche di rilievo topografico come il posizionamento GNSS e la misurazione di angoli e distanze con stazione totale. I primi capitoli di questo elaborato sono dedicati alla descrizione dei fondamenti teorici della geodesia e delle tecniche di rilievo utilizzate per la restituzione del modello tridimensionale. Gli ultimi capitoli, invece, sono dedicati alla descrizione delle fasi di rilievo e all’analisi dei dati, dedicando particolare attenzione alla georeferenziazione delle nuvole di punti acquisite in ambienti confinati, come i tratti tombati del torrente Ravone.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Quando si pensa alla figura di un medico, non lo si può immaginare senza uno stetoscopio alle sue spalle. Lo stetoscopio è uno strumento molto semplice ma molto importante, inventato in Francia nel 1816 da René Théophile Hyacinthe Laennec, permise di poter auscultare ed analizzare i rumori generati dai battiti cardiaci ottenendo suoni più puliti e rendendo meno invasiva la procedura, precedentemente svolta posizionando l'orecchio sul petto del paziente. Nel 1970 David Littman migliorò notevolmente la struttura dello stetoscopio precedente, creando lo strumento che noi tutti conosciamo. Grazie alla rapida evoluzione dell'elettronica negli ultimi anni si hanno oggi a disposizione una moltitudine di nuovi ed efficaci sensori, alcuni dei quali trovano impiego nell'ambito dell'ingegneria biomedica. In particolare, si è pensato di utilizzare queste nuove tecnologie per la progettazione e lo sviluppo di uno stetoscopio elettronico. Il forte vantaggio di uno stetoscopio elettronico, rispetto al classico biomeccanico, risiede nell'elaborazione, nel filtraggio e nell'amplificazione del segnale che si può applicare all'auscultazione, oltreché nella possibilità di poter registrare il segnale acquisito, rendendo questo dispositivo uno strumento potenzialmente efficace per la telemedicina. In questo elaborato verrà trattato lo sviluppo di uno stetoscopio elettronico, evidenziando tutti i problemi e le criticità riscontrate durante il progetto in ogni punto di vista, software, hardware e signal processing. Tutto ciò non prima di una consistente introduzione necessaria per comprendere la tipologia di segnale d'interesse e l'analisi di alcuni tipi di dispositivi presenti in commercio e non, da cui si è tratta ispirazione. Seguirà un analisi critica dei risultati ottenuti, confrontando i segnali ottenuti dal dispositivo progettato con quelli ottenuti in reparto utilizzando due dispositivi commerciali, analizzando le differenze, punti di forza e di debolezza.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I materiali piezoelettrici sono una classe di materiali che hanno la capacità di convertire energia elettrica in meccanica, e viceversa. I piezoelettrici si suddividono in tre classi: naturarli, ceramici e polimerici. Quest'ultimi, seppur mostrando coefficienti piezoelettrici non elevati rispetto ai primi due, presentano grandi vantaggi in termini di proprietà meccaniche, essendo per esempio molto flessibili, grazie anche all'ausilio delle nanotecnologie. In questo elaborato si è utilizzato il PVDF-TrFE, un materiale polimerico, prodotto sotto forma di nanofibre tramite il processo di elettrofilatura. La struttura nanofibrosa incrementa le proprietà piezoelettriche, che dipendono dalla superficie totale del materiale, poiché massimizza il rapporto superficie/volume. Lo scopo dell'elaborato è quello di ottimizzare il processo di polarizzazione, e quindi incrementare la risposta elettromeccanica dei provini a seguito di una sollecitazione, applicando una tecnica innovativa. Questa prevede l'applicazione di un campo elettrico AC sinusoidale, partendo da un valor nullo fino a un valore massimo di regime, continuando successivamente con un campo in DC avente la stessa apiezza massima. Questa tecnica è stata applicata a differenti provini di PVDF-TrFE, variando alcuni parametri come frequenza, numero di cicli e temperatura. I valori misurati sono stati suddivisi in diversi grafici al variare della temperatura, mostrando notevoli miglioramenti rispetto alle tecniche già note di polarizzazione. È stata inoltre mostrata la struttura in scala nanometrica delle fibre, valutando così l'effetto della temperatura di esercizio sui provini durante il processo di polarizzazione.