946 resultados para GDI parametri motoristici efficienza prestazioni inquinamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cardiotocography (CTG) is a widespread foetal diagnostic methods. However, it lacks of objectivity and reproducibility since its dependence on observer's expertise. To overcome these limitations, more objective methods for CTG interpretation have been proposed. In particular, many developed techniques aim to assess the foetal heart rate variability (FHRV). Among them, some methodologies from nonlinear systems theory have been applied to the study of FHRV. All the techniques have proved to be helpful in specific cases. Nevertheless, none of them is more reliable than the others. Therefore, an in-depth study is necessary. The aim of this work is to deepen the FHRV analysis through the Symbolic Dynamics Analysis (SDA), a nonlinear technique already successfully employed for HRV analysis. Thanks to its simplicity of interpretation, it could be a useful tool for clinicians. We performed a literature study involving about 200 references on HRV and FHRV analysis; approximately 100 works were focused on non-linear techniques. Then, in order to compare linear and non-linear methods, we carried out a multiparametric study. 580 antepartum recordings of healthy fetuses were examined. Signals were processed using an updated software for CTG analysis and a new developed software for generating simulated CTG traces. Finally, statistical tests and regression analyses were carried out for estimating relationships among extracted indexes and other clinical information. Results confirm that none of the employed techniques is more reliable than the others. Moreover, in agreement with the literature, each analysis should take into account two relevant parameters, the foetal status and the week of gestation. Regarding the SDA, results show its promising capabilities in FHRV analysis. It allows recognizing foetal status, gestation week and global variability of FHR signals, even better than other methods. Nevertheless, further studies, which should involve even pathological cases, are necessary to establish its reliability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte dello studio riguarda la descrizione dell’origine e delle caratteristiche che differenziano la periodizzazione tradizionale e quella a blocchi per l’allenamento della forza. L’obiettivo della seconda parte del lavoro è stato quello di confrontare gli adattamento ormonali e prestativi ad un programma di allenamento della forza periodizzato secondo il modello tradizionale o secondo quello a blocchi in un campione di atleti di forza. Venticinque atleti maschi sono stati assegnati con procedura randomizzata al gruppo con programmazione tradizionale (TP) o a quello a blocchi (BP). Prelievi di saliva sono stati effettuati prima e dopo 6 diverse sedute di allenamento durante il programma al fine di rilevare i livelli di testosterone (T) e cortisolo (C). Le valutazioni dei parametri antropometrici e prestativi sono state effettuate prima e dopo le 15 settimane di allenamento previste. In nessuno dei due gruppi vi sono state variazioni significative nei livelli ormonali. I risultati indicano che il gruppo BP ha ottenuto incrementi superiori a quello TP riguardo alla forza massima (p = 0,040) ed alla potenza (p = 0,035) espressa alla panca piana. Nella terza parte dello studio, la periodizzazione tradizionale e quella a blocchi sono state confrontate riguardo agli effetti sulla forza massima e sull’ipertrofia in donne allenate di livello amatoriale. Diciassette donne hanno partecipato all’esperimento allenandosi 3 volte a settimana per 10 settimane. I risultati dimostrano che entrambe le periodizzazioni hanno portato a miglioramenti significativi di forza e potenza; il gruppo TP ha tuttavia ottenuto incrementi superiori di forza massima (p = 0,039) e ipertrofia degli arti inferiori (p = 0,004). La periodizzazione tradizionale quindi si è dimostrata più efficace per aumentare la forza massima e la sezione muscolare della coscia in partecipanti di genere femminile. I risultati contrastanti nei due generi potrebbero essere legati a rapporti diversi fra processi anabolici e catabolici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto della tesi e' l'approfondimento su tecniche e metodiche di preservazione del polmone isolato per lo studio ecografico. E' discussa l'appropriatezza sull'uso degli ultrasuoni in corso di chirurgia mini invasiva polmonare, obiettivo di una ricerca sperimentale. Il razionale dello studio si fonda sull'indicazione all'exeresi chirurgica di noduli polmonari di diametro inferiore al centometro, ovvero di diametro superiore ma localizzati in aree centrali del polmone. Queste lesioni sono sempre piu' frequentente diagnosticate per mezzo di avanzate tecniche di imaging. L'atto chirurgico ha scopo terapeutico quando sia stata posta la diagnosi di neoplasia maligna, diagnostico-terapeutico quando non sia ancora ottenuta la tipizzazione istologica della lesione. La tecnica toracoscopica offre numerosi vantaggi rispetto alle tecniche chirurgiche tradizionali ma presenta il grave limite di non permettere la palpazione diretta del tessuto polmonare e la localizzazione della formazione tumorale quando essa non sia visibile macroscopicamente. Gli ultrasuoni sono stati utilizzati con successo per indirizzare la localizzazione del nodulo polmonare. Scopo dello studio sperimentale e' quello di confrontare tecniche diverse di preservazione del polmone isolato in un modello animale, comparando catatteristiche e prestazioni di sonde ecografiche differenti per tipologia. Del tutto recentemente, in ambito trapiantologico, sono state proposte tecniche di preservazione organica utili ai fini di uno studio anatomico sperimentale particolareggiato (EVLP) e moderna e' da considerarsi la concezione di mezzi tecnici specifici per la localizzazione di bersagli intrapolmonari. La tecnica clinica applicata allo studio del particolare ecografico, nel modello animale, ha reso comprensibile e meglio definito il ruolo delle sonde ecografiche nell'individuazione di forme tumorali suscettibili di exeresi definitiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto della presente tesi di laurea è quello di analizzare sia dal punto di vista teorico che da quello pratico l’impiego di geosintetici di rinforzo per il consolidamento di rilevati e sponde arginali al fine di ottenere un sistema pluricomposto terreno-rinforzo che manifesti adeguati margini di sicurezza nei confronti delle verifiche di stabilità prescritte dalla normativa vigente, soprattutto nei confronti dell’azione indotta dal sisma. In particolare il lavoro è suddiviso di due macro parti fondamentali: una prima parte dedicata allo studio degli aspetti teorici legati alla caratterizzazione dei materiali di rinforzo con particolare riferimento ai geotessili ed alle geogriglie, ai principi fondamentali di funzionamento del sistema terreno-rinforzi, alla normativa di riferimento per tali costruzioni, al dimensionamento dei pendii in terra rinforzata ed al loro inserimento ambientale; la seconda parte, basata sullo studio di un caso di reale applicazione del metodo di rinforzo con geosintetici, si svolge attraverso una approfondita e critica analisi della relazione geologica messa a disposizione dal Comune di Cesenatico (FC) con lo scopo di elaborare le prove svolte in situ, ricavare i parametri geotecnici caratteristici del terreno e definire un modello geologico e geotecnico di riferimento per le successive elaborazioni. Il progetto prevede infatti il consolidamento delle sponde del canale che attraversa, parallelamente alla linea di costa, la città di Cesenatico (FC) e denominato “Vena Mazzarini”, dal nome dell’Ingegnere che ne curò il progetto originale. In particolare si è previsto l’impiego di geogriglie di rinforzo in HDPE e tutte le verifiche sono state realizzate mediante il software di calcolo Geostru Slope® e Slope/M.R.E® messi cordialmente a disposizione dalla software house Geostru S.r.l.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il morbo di Parkinson è una comune malattia neurodegenerativa. I disturbi nella camminata sono per le persone affette da questa patologia una delle più frequenti cause di disabilità e limitazione all’indipendenza nello svolgimento delle attività della vita quotidiana. La camminata nei soggetti che presentano questa malattia è caratterizzata da bassa velocità, produzione di shuffling, passi corti, e alta cadenza del passo. Recenti studi hanno dimostrato che i soggetti con la malattia di Parkinson possono ricevere benefici da una terapia motoria basata su sistemi stand alone in grado di fornire stimoli audio e feedback. Lo scopo di questo studio è stato quello di esaminare se i soggetti con la malattia di Parkinson miglioravano la loro camminata in risposta a due tipi di stimoli audio: istruzioni verbali e metronomo. Undici soggetti con la malattia di Parkinson sono stati testati utilizzando un sistema indossabile finalizzato alla fornitura di un feedback uditivo. Il sistema è in grado di estrarre in tempo reale i parametri spazio-temporali(cadenza, lunghezza del passo e velocità) della camminata e, confrontandoli con parametri di riferimento ottenuti da una camminata del soggetto stesso supervisionata dal clinico, è in grado di restituire all’utente un feedback sotto forma di messaggio vocale o di metronomo finalizzato a correggere, qualora la camminata attuale non risulti efficace e clinicamente corretta, lo schema della camminata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nanoparticelle polimeriche offrono grandi vantaggi nella nanomedicina in quanto fungono da carrier per il Drug Delivery e possono essere molto utili per le malattie ancor oggi difficili da trattare quali le neurodegenerative come l’Alzheimer. In questo progetto di tesi sono stati creati nanocarrier polimerici utilizzando come polimero un copolimero a blocchi anfifilico noto come PLGA-b-PEG: con varie tecniche si sono ottenute micelle polimeriche nelle quali sono stati intrappolati come principi attivi sia un farmaco, il liraglutide, sia nanoparticelle di magnesio; il primo può ridurre le placche β-amiloidee, tipiche cause dell’Alzheimer, mentre le seconde possono aumentare la plasticità sinaptica anch’essa legata all’Alzheimer. Inoltre è stato sintetizzato e intrappolato anche un promettente agente diagnostico, ovvero nanoparticelle di ferro, utile per aumentare la sensibilità di tecniche di imaging quali MRI e per la rivelazione precoce di malattie. Tutti i sistemi sono stati caratterizzati con tecniche specifiche per valutare i parametri chiave quali dimensione, polidispersità, carica superficiale e concentrazione dei componenti e successivamente sono state utilizzate per studi biologici effettuati da collaboratori esterni. Tutto questo ha come obiettivo futuro la creazione di un carrier teranostico che racchiuderà al suo interno l’agente terapeutico e l’agente diagnostico per combinare i due effetti principali in un unico carrier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi descrive una prima serie di misure effettuate per caratterizzare le prestazioni di un rivelatore di fotoni MCP-PMT a multi anodo, con particolare enfasi sulla risoluzione temporale e spaziale. I risultati sono stati confrontati con quelli relativi a tre ulteriori rivelatori (un MCP-PMT a singolo anodo e due fotomoltiplicatori a silicio). Le misure sono state effettuate presso i Laboratori dell’Istituto Nazionale di Fisica Nucleare (INFN - Sezione di Bologna) per conto del Dipartimento di Fisica dell’Università di Bologna. La rivelazione della luce ha sempre occupato un posto fondamentale nella Fisica Nucleare e Subnucleare. Il principio base della rivelazione consiste nel trasformare la luce incidente in un segnale elettrico misurabile e i primi strumenti storicamente utilizzati furono i fotomoltiplicatori. Successivamente furono introdotti dei nuovi rivelatori di fotoni chiamati Micro Channel Plates, composti da un array di canali di dimensioni microscopiche, ciascuno in grado di moltiplicare gli elettroni prodotti per effetto fotoelettrico dai fotoni incidenti. Questo nuovo modello presenta ottime prestazioni in particolare per quanto riguarda la risoluzione temporale, e questa insieme ad altre caratteristiche (come la segmentazione degli anodi, che permette una risoluzione spaziale migliore), ha spinto a studiarne il funzionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi è stata validata una interfaccia grafica in ambiente Windows capace di impostare i parametri della camera Tau 320 FLIR, usata a bordo del satellite ESEO come sensore di terra. L'impostazione dei parametri passa, inoltre, attraverso l'hardware Discovery F4 e per questo è stato sviluppato e validato anche uno script in linguaggio C per la Discovery che fa comunicare il PC con la camera.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente studio è stato affrontato il problema di effettuare l’acquisizione di impronte digitali mediante la fotocamera di uno Smartphone. Si tratta di un’applicazione potenzialmente molto interessante in quanto l’utilizzo di uno Smartphone renderebbe molto più semplice l’acquisizione delle impronte, non essendo necessari dispositivi specifici come, ad esempio, scanner d’impronte digitali. D’altra parte, l’utilizzo di una fotocamera per l’acquisizione delle impronte introduce diverse problematiche, fra cui individuare l’area del dito corrispondente all'impronta, valutare la qualità di un'immagine e determinare quali minuzie estratte corrispondano effettivamente a quelle di interesse. Questo studio conferma la fattibilità di un sistema del genere che risulta essere in grado di fornire buone prestazioni di riconoscimento biometrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l’evoluzione delle tecniche ecocardiografiche relativamente alla diagnosi precoce della cardiotossicità. L’elaborato espone le modalità di imaging ecocardiografico che vengono utilizzate per diagnosticare la cardiotossicità a partire dall’ecocardiografia bidimensionale, fino alle tecniche tridimensionali con acquisizione in tempo reale, attualmente in evoluzione. Si analizzano le varie tecniche diagnostiche rese disponibili dall’esame ecocardiografico: ecocardiografia a contrasto, doppler ad onda continua e pulsata e color doppler, e i metodi e le stime attraverso i quali è possibile quantificare i volumi cardiaci, indici della funzionalità del miocardio. La frazione di eiezione è infatti stata, fino ad ora, il parametro di riferimento per la verifica di lesioni cardiache riportate a seguito di terapia antitumorale. La cardiotossicità viene riscontrata per riduzioni dei valori della frazione di eiezione da ≥5% a <55% con sintomi di scompenso cardiaco e riduzione asintomatica da ≥10% al 55%. Tuttavia, l’osservazione di questo parametro, permette di quantificare il danno riportato quando ormai ha avuto ripercussioni funzionali. In campo clinico, si sta imponendo, al giorno d’oggi, l’analisi delle deformazioni cardiache per una valutazione precoce dell’insorgenza della cardiotossicità. Lo studio delle deformazioni cardiache viene effettuato tramite una nuova tecnica di imaging: l’ecocardiografia speckle tracking (STE), che consente un’analisi quantitativa e oggettiva, poiché indipendente dall’angolo di insonazione, della funzionalità miocardica sia globale sia locale, analizzando le dislocazioni spaziali degli speckles, punti generati dall’interazione tra ultrasuoni e fibre miocardiche. I parametri principali estrapolati dall’indagine sono: deformazione longitudinale, deformazione radiale e deformazione circonferenziale che descrivono la meccanica del muscolo cardiaco derivante dall’anatomia delle fibre miocardiche. La STE sviluppata inizialmente in 2D, è disponibile ora anche in 3D, permettendo la valutazione del vettore delle dislocazioni lungo le tre dimensioni e non più limitatamente ad un piano. Un confronto tra le due mostra come nella STE bidimensionale venga evidenziata una grande variabilità nella misura delle dislocazioni mentre la 3D mostra un pattern più uniforme, coerente con la normale motilità delle pareti cardiache. La valutazione della deformazione longitudinale globale (GLS), compiuta tramite ecocardiografia speckle tracking, viene riconosciuta come indice quantitativo della funzione del ventricolo sinistro le cui riduzioni sono predittive di cardiotossicità. Queste riduzioni vengono riscontrate anche per valori di frazioni di eiezione normale: ne risulta che costituiscono un più efficace e sensibile indicatore di cardiotossicità e possono essere utilizzate per la sua diagnosi precoce.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi si inserisce in un contesto di ricerca molto attuale, che studia la preparazione di nuovi materiali polimerici ad elevate prestazioni e derivabili da fonti rinnovabili. Partendo dal resorcinolo, una molecola che può essere ottenuta da biomassa, e dall’etilene carbonato sono state ottimizzate la sintesi e la purificazione di un diolo, l’1,3-bis(2-idrossietossi)benzene (HER), senza l’impiego di solventi e con l’utilizzo di modeste quantità di catalizzatore. L’HER è conosciuto in letteratura ma è poco studiato e non viene attualmente impiegato come monomero. In questo lavoro L’HER è stato polimerizzato in massa con una serie di diacidi (alcuni derivati da biomassa, altri provenienti da fonti fossili) sia di natura alifatica (lineari e ciclici) che di natura aromatica. Sono state analizzate la struttura chimica e le proprietà termiche dei nuovi poliesteri, in modo da definire correlazioni fra struttura e prestazioni finali. E’ stata infine messa a punto una procedura one-pot per la preparazione dei suddetti poliesteri; essa prevede la sintesi diretta dei polimeri senza lo stadio intermedio di purificazione dell’HER.