502 resultados para Rettificabilità nei Gruppi di Carnot


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di riqualificazione della Caserma Sani si ispira allʼinteresse nei confronti delle tematiche del recupero edilizio e urbano. Esso nasce dallʼintenzione di reintegrare unʼarea urbana in via di dismissione nel suo contesto attraverso lʼinserimento di nuove funzioni che rispondano alle esigenze di questa parte di città e nel contempo riqualificare i fabbricati esistenti attraverso un progetto di recupero e completamento che favorisca il dialogo del complesso esistente con il sistema urbano circostante. La volontà di riuso della maggioranza degli edifici facenti parte del vecchio impianto si basa su considerazioni legate alla natura stessa del sito: lʼintenzione è quella di conservarne la memoria, non tanto per il suo valore storico-architettonico, ma perché nel caso specifico della Caserma più che di memoria è opportuno parlare di scoperta, essendo, per propria natura militare, un luogo da sempre estraneo alla comunità e al suo contesto, chiuso e oscurato dal limite fisico del muro di cinta. La caserma inoltre si compone di edifici essenzialmente funzionali, di matrice industriale, la cui versatilità si legge nella semplicità e serialità morfologica, rendendoli “organismi dinamici” in grado di accogliere trasformazioni e cambi di funzione. Il riuso si muove in parallelo ai concetti di risignificazione e riciclaggio, dividendosi in modo egualmente efficace fra presupposti teorici e pratici. Esso costituisce una valida alternativa alla pratica della demolizione, nel caso in cui questa non sia specificatamente necessaria, e alle implicazione economiche e ambientali (smaltimento dei rifiuti, impiego dei trasporti e fondi economici, ecc.) che la accompagnano. Alla pratica del riuso si affianca nel progetto quella di completamento e ampliamento, arricchendo il vecchio sistema di edifici con nuove costruzioni che dialoghino discretamente con la preesistenza stabilendo un rapporto di reciproca complementarietà. Il progetto di riqualificazione si basa su più ampie considerazioni a livello urbano, che prevedono lʼintegrazione dellʼarea ad un sistema di attraversamento pedonale e ciclabile che colleghi da nord a sud le principali risorse verdi del quartiere passando per alcuni dei principali poli attrattori dellʼarea, quali la Stazione Centrale, il Dopolavoro Ferroviario adibito a verde attrezzato, il nuovo Tecno Polo che sorgerà grazie al progetto di riqualificazione previsto per lʼex Manifattura Tabacchi di Pier Luigi Nervi e il nuovo polo terziario che sorgerà dalla dismissione delle ex Officine Cevolani. In particolare sono previsti due sistemi di collegamento, uno ciclo-pedonale permesso dalla nuova pista ciclabile, prevista dal nuovo Piano Strutturale lungo il sedime della vecchia ferrovia che correrà da nord a sud collegando il Parco della Montagnola e in generale il centro storico al Parco Nord, situato oltre il limite viario della tangenziale. Parallelamente alla pista ciclabile, si svilupperà allʼinterno del tessuto un ampio viale pedonale che, dal Dopolavoro Ferroviario (parco attrezzato con impianti sportivi) collegherà la grande area verde che sorgerà dove ora giacciono i resti delle ex Industrie Casaralta, adiacenti alla Caserma Sani, già oggetto di bonifica e in via di dismissione, incontrando lungo il suo percorso differenti realtà e funzioni: complessi residenziali, terziari, il polo culturale e le aree verdi. Allʼinterno dellʼarea della Caserma sarà integrato agli edifici, nuovi e preesistenti, un sistema di piazze pavimentate e percorsi di attraversamento che lo riuniscono al tessuto circostante e favoriscono il collegamento da nord a sud e da est a ovest di zone della città finora poco coinvolte dal traffico pedonale, in particolare è il caso del Fiera District separato dal traffico veloce di Via Stalingrado rispetto alla zona residenziale della Bolognina. Il progetto lascia ampio spazio alle aree verdi, le quali costituiscono più del 50 % della superficie di comparto, garantendo una preziosa risorsa ambientale per il quartiere. Lʼintervento assicura lʼinserimento di una molteplicità di funzioni e servizi: residenze unifamiliari e uno studentato, uffici e commercio, una biblioteca, un auditorium e un polo museale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perchè sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questo testo è quello di fornire una panoramica dei diversi aspetti della tecnologia della replicazione dei dati e dei problemi da affrontare durante la realizzazione, la gestione e la valutazione di una qualsiasi soluzione di replicazione dei dati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo dell’elaborato è analizzare la fattibilità tecnica ed economica di un impianto di prelievo d’acqua da falda artesiana per lo scambio termico nell’impianto frigorifero centralizzato dell’ospedale civile nuovo di Imola. Esso provvede a fornire acqua refrigerata a tutte le unità di trattamento aria (u.t.a.) del complesso ospedaliero ed è finalizzato a garantire per ogni locale le specifiche condizioni igrometriche , nonchè il benessere degli operatori e dei pazienti della struttura. Il lavoro di progettazione ha riguardato il dimensionamento di componenti e reti idrauliche con l’ausilio del software “EPANET” (programma per la simulazione di reti idrauliche). L’idea che ha guidato il presente elaborato è stata la creazione di un “ciclo” dell’acqua tale per cui l’acqua di scarto delle torri evaporative viene utilizzata per l’irrigazione degli orti nei pressi dei quale sorge il pozzo e successivamente, va ad alimentare la falda stessa. Le scelte progettuali hanno quindi dovuto considerare questo importante vincolo e sono state tese alla minimizzazione dei consumi d’acqua e , quindi, alla sostenibilità ambientale dell’intero impianto. In generale, infatti non è detto che la soluzione economicamente più vantaggiosa lo sia anche dal punto di vista ambientale. La soluzione adottata con rilancio dell’acqua agli orti limita il prelievo medio giornaliero d’acqua di falda di 20 m3/gg durante il periodo estivo. E’stato dimostrato come il progetto sia tecnicamente fattibile e generi valore per l’impresa con indice di rendimento IR(VAN/Capitale investito) pari a 1,29 per i primi 20 anni e pari a 2,06 per n anni di funzionamento dell’impianto con un tempo di recupero del capitale investito pari a sei anni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente dissertazione illustra lo studio, svolto in ambito di Tesi di Laurea Specialistica, della difesa delle aree di pianura prospicienti il tratto medio inferiore del Fiume Po dalle cosiddette piene al limite della prevedibilità, ovvero quelle aventi intensità al di sopra della quale le procedure di stima statistica perdono di significato a causa della mancanza di eventi osservati confrontabili (Majone, Tomirotti, 2006). In questo contesto si è definito come evento di piena al limite della prevedibiltà un evento con tempo di ritorno pari a cinquecento anni. Lo studio ha necessariamente preso in considerazione e riprodotto attraverso una schematizzazione concettuale le esondazioni all'esterno delle arginature maestre che si verificherebbero in conseguenza ad un evento estremo, quale quello preso in esame, nei comparti idraulici prospicienti l'asta fluviale. Detti comparti sono costituiti dalle zone di pianura latistanti l’asta fluviale, classificate dall'Autorità di Bacino come Fascia C e suddivise in base alla presenza degli affluenti principali del fiume Po e delle principali infrastrutture viarie e ferroviarie situate in tale fascia. Il presente studio persegue l’obiettivo di analizzare alcune politiche di intervento per la mitigazione del rischio alluvionale alternative al sovralzo e ringrosso arginale e ricade all'interno delle linee strategiche individuate dall' AdB-Po per la mitigazione del rischio residuale, ossia quello che permane anche in presenza di opere di difesa progettate e verificate con riferimento ad un ben preciso tempo di ritorno (nel caso in esame Trit = 200 anni). Questa linea di intervento si traduce praticamente individuando sul territorio aree meno "sensibili", in virtù del minor valore o dell'inferiore vulnerabilità dei beni in esse presenti, e dunque adatte ad accogliere i volumi di piena esondabili in occasione di quegli eventi di piena incompatibili con i presidi idraulici preesistenti, le sopra richiamate piene al limite della prevedibilità. L'esondazione controllata dei volumi di piena in tali aree avrebbe infatti il fine di tutelare le aree di maggior pregio, interessate da centri abitati, infrastrutture e beni di vario tipo; tale controllo è da considerarsi auspicabile in quanto sedici milioni di persone abitano la zona del bacino del Po e qui sono concentrati il 55% del patrimonio zootecnico italiano, il 35% della produzione agricola e il 37% delle industrie le quali però sostengono il 46% dei posti di lavoro (fonte AdB-Po). Per questi motivi il Po e il suo bacino sono da considerare come zone nevralgiche per l’intera economia italiana e una delle aree europee con la più alta concentrazione di popolazione, industrie e attività commerciali. Dal punto di vista economico, l’area è strategica per il Paese garantendo un PIL che copre il 40% di quello nazionale, grazie alla presenza di grandi industrie e di una quota rilevante di piccole e medie imprese, nonché d’attività agricole e zootecniche diffuse. Il punto di partenza è stato il modello numerico quasi-bidimensionale precedentemente sviluppato dal DISTART nel 2008 con il software HEC-RAS, la cui schematizzazione geometrica copriva unicamente l'alveo del Fiume (Fasce A e B secondo la denominazione adottata dall'AdB-Po) e le cui condizioni iniziali e al contorno rispecchiavano un evento con tempo di ritorno pari a duecento anni. Si è proceduto dunque alla definizione di nuove sollecitazioni di progetto, volte a riprodurre nelle sezioni strumentate del Po gli idrogrammi sintetici con tempo di ritorno di cinquecento anni messi a punto dal D.I.I.A.R. (Dipartimento di Ingegneria Idraulica, Ambientale e del Rilevamento, DIIAR, 2001) del Politecnico di Milano. Il modello stesso è stato poi aggiornato e considerevolmente modificato. Il risultato consiste in un nuovo modello matematico idraulico di tipo quasi-bidimensionale che, attraverso una schematizzazione concettuale, riproduce il comportamento idraulico in occasione di eventi di piena al limite della prevedibilità per tutte e tre le Fasce Fluviali considerate nel Piano stralcio per l’Assetto Idrogeologico redatto dall'AdB-Po (Fasce A, B C, v. PAI, 1999). I diversi comparti idraulici in cui può essere suddivisa la Fascia C sono stati inseriti nel modello e geometricamente descritti in termini di curve di riempimento, ricavate a partire dal DTM del Bacino del Po attraverso opportune elaborazioni in ambiente GIS (Geographic Information System). Una volta predisposto il modello sono state condotte due tipologie di simulazioni. Una prima serie è stata volta alla definizione in maniera iterativa dei punti critici degli argini maestri, ovvero quelli nei quali si prevedeva avvenisse la tracimazione, e alla modellazione in essi della formazione di brecce, decisive per una corretta riproduzione del fenomeno di esondazione all'esterno delle arginature maestre nell'attuale configurazione; bisogna infatti considerare che le arginature maestre vengono comunemente progettate con il solo fine di contenere le portate di piena in alveo, e che dunque un’eventuale tracimazione induce fenomeni erosivi che solitamente portano all'apertura di una breccia nel manufatto (rotta arginale). Un'ulteriore simulazione ha permesso di valutare l'evoluzione del fenomeno sotto l'ipotesi di un intervento di consolidamento degli argini maestri nei tratti critici (interessati dai sormonti) e quindi di rotta arginale impedita. Il confronto dei risultati ottenuti ha evidenziato i benefici associati ad una laminazione controllata dell'evento di piena all'esterno delle arginature. In questo contesto il termine "controllata" è esclusivamente associato al fenomeno di rotta arginale, come detto inibita per lo scenario ipotetico. I benefici di tale controllo si hanno in termini di volumi, di portate esondate e di tiranti attesi nei comparti idraulici. Lo strumento modellistico predisposto nell’ambito della Tesi di Laurea Specialistica si presta ad essere utilizzato a supporto dell’identificazione su ampia scala delle zone della Fascia C meno “sensibili”, in quanto meno vulnerabili ai fenomeni di allagamento. Questo ulteriore passaggio costituisce il punto di partenza per delineare le strategie ottimali di laminazione controllata in Fascia C degli eventi al limite della prevedibilità al fine della riduzione del rischio idraulico nelle aree di pianura prospicienti il Po, aspetto che verrà affrontato in sviluppi successivi del presente lavoro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestione di sorgenti multiple di disturbo in AMP: il caso delle Isole Tremiti Il seguente lavoro di tesi valuta l’efficacia di protezione di un’area marina protetta (AMP) sui popolamenti di differenti habitat compresi in zone a diverso regime di tutela. Questo tema è molto sentito sia dal punto di vista scientifico, poiché le AMP rappresentano uno esperimento di esclusione delle attività antropiche ad ampia scala, sia dal punto di vista socio-economico per l’interesse che sono in grado di generare nelle comunità locali. Tuttavia, ad oggi, gli studi che abbiano dimostrato l’efficacia di protezione delle AMP sono pochi e sono per lo più diretti sulle specie di maggior interesse commerciale. In generale, c’è un’evidente mancanza di protezione in molte AMP del Mediterraneo e di aree extra-mediterranee che può essere attribuita a diversi fattori, tra cui le caratteristiche fisiche dei siti dove sono state istituite, le modalità di gestione e le numerose attività illegali che vengono svolte all’interno dei loro confini. Inoltre, nelle aree protette, spesso, anche le attività lecite non sono adeguatamente regolamentate, limitando ulteriormente il perseguimento degli obiettivi istitutivi e la tutela della biodiversità marina. Testare le ipotesi sull’efficacia di protezione delle AMP è, quindi, di fondamentale importanza per capire quali tipi di impatti sono maggiormente presenti e per poter fornire agli Enti gestori informazioni utili per migliorare l’amministrazione delle AMP. In particolare, l’AMP dell’arcipelago delle Isole Tremiti, istituita da oltre venti anni, è un’area protetta che presenta molte criticità, come dimostrato in precedenti campagne di monitoraggio condotte dal Consorzio Nazionale Interuniversitario per le Scienze del Mare (CoNISMa). In questo contesto, la presente tesi è stata sviluppata con lo scopo di quantificare l’effetto della regolamentazione di diverse attività umane sui popolamenti del subtidale, della frangia e delle praterie di Posidonia oceanica nell’AMP delle Isole Tremiti a diverse scale spaziali per un periodo di circa dieci anni. Questo lavoro, inoltre, rientra in un progetto finanziato dal Ministero dell’Ambiente e della Tutela del Territorio e del Mare al CoNISMa volto ad impostare un’attività di monitoraggio sperimentale e di mitigazione in questa AMP. I campionamenti sono stati condotti tra Giugno e Settembre 2010 e i dati raccolti sono stati integrati a quelli ottenuti nei precedenti monitoraggi svolti nelle Isole Tremiti. I risultati hanno mostrato che: 1) ci sono differenze significative consistenti nel tempo tra il subtidale dell’isola di Pianosa e quello delle altre isole dell’arcipelago; 2) i popolamenti nella frangia di Pianosa, di San Domino e di Caprara non presentano differenze significative; 3) c’è un’elevata variabilità a scala di sito nelle praterie di Posidonia oceanica, ma non si osserva una differenza tra località protette ed impattate. La differenza riscontrata nel subtidale tra zona a protezione integrale (Pianosa) e le altre isole dell’arcipelago (controlli) non è però attribuibile ad un effetto della protezione. Infatti, il subtidale di Pianosa è caratterizzato da un barren molto esteso con elevate percentuali di spugne rosse incrostanti, di alghe rodoficee incrostanti e di ricci di mare, mentre nelle isole di San Domino e di Caprara c’è una maggiore diversità data da alghe corallinacee articolate, alghe erette, idrozoi, ascidiacei e numerose spugne. Diversi fattori possono aver agito nel determinare questo risultato, ma molto probabilmente la cospicua attività di pesca illegale che viene praticata a Pianosa combinata all’attività di grazing degli erbivori, non controllati dai predatori, limita il recupero dei popolamenti. Al contrario, l’assenza di differenze nei popolamenti della frangia delle tre isole campionate fa ipotizzare la mancanza di impatti diretti (principalmente il calpestio) su questo habitat. Per quanto riguarda la Posidonia oceanica i risultati suggeriscono che si stia verificando un ancoraggio indiscriminato su tutte le praterie delle Isole Tremiti e che molto probabilmente si tratta di praterie in forte regressione, come indicano anche le ricerche condotte dall’Università di Bari. C’è bisogno, tuttavia, di ulteriori studi che aiutino a comprendere meglio la variabilità nella riposta dei popolamenti in relazione alle diverse condizioni ambientali e al diverso sforzo di gestione. In conclusione, dai risultati ottenuti, emerge chiaramente come anche nell’AMP delle Isole Tremiti, ci sia una scarsa efficacia di protezione, così come è stato rilevato per la maggior parte delle AMP italiane. Per risolvere le costanti conflittualità che perdurano nelle Isole Tremiti e che non permettono il raggiungimento degli obiettivi istitutivi dell’AMP, è assolutamente necessario, oltre che far rispettare la regolamentazione vigente incrementando il numero di guardacoste sull’isola durante tutto l’anno, procedere, eventualmente, ad una rizonizzazione dell’AMP e sviluppare un piano di gestione in accordo con la popolazione locale adeguatamente sensibilizzata. Solo in questo modo sarà possibile ridurre le numerose attività illegali all’interno dell’AMP, e, allo stesso tempo, rendere gli stessi cittadini una componente imprescindibile della conservazione di questo arcipelago.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si pone come obiettivo la riqualificazione architettonica del plesso scolastico del Comune di Galeata, cittadina della media valle del Bidente conosciuta sia per gli estesi ritrovamenti archeologici dell’antica città romana di Mevaniola e del cosiddetto “Palazzo di Teodorico”, sia per essere la città con la percentuale più alta di immigrati regolari a livello nazionale. Sono proprio queste peculiarità a guidare il progetto verso un intervento mirato non solo alla rigenerazione urbana dell’area ma anche civica e sociale attraverso la dotazione di nuovi servizi e spazi pubblici. Il progetto nasce dall’idea di dare un carattere unitario e riconoscibile ad un’area attualmente caratterizzata da singoli edifici che semplicemente si susseguono l’uno dopo l’altro in modo paratattico. La volontà è invece quella di dar vita ad un vero e proprio “palazzo” dell’istruzione, caratterizzato da spazi privati e spazi pubblici, spazi aperti e spazi chiusi in grado di dare una molteplicità di risposte e soluzioni alla complessità della società odierna galeatese. Proprio lo spazio pubblico è infatti il vero motore dell’intervento; quello spazio pubblico attualmente negato a Galeata, che si è vista mutilata nella parte centrale del suo centro storico sventrato alla fine dell’Ottocento per la costruzione della strada statale bidentina, diventa ora generatore di nuove relazioni con gli edifici dell’area e di nuove dinamiche tra il plesso scolastico e la città grazie alla realizzazione di corti aperte e terrazzate, piazze e strade pedonali che fungono sia da giardini sia da spazi espositivi o comunque spazi polifunzionali che possono accogliere eventi nei vari mesi dell’anno, entrando così a far parte di quella serie di attrezzature a servizio delle manifestazioni culturali in cui è sempre attiva la valle del Bidente e la comunità di Galeata. La scuola d’infanzia e di istruzione primaria viene così a configurarsi non solo come il primo luogo della crescita culturale del bambino, ma anche come primo luogo di integrazione sociale, perché il nuovo progetto genera all’interno e all’esterno degli edifici occasioni di incontro e confronto tra gli scolari grazie all’attenzione riservata agli spazi per le attività di interciclo e per le attività libere. Inoltre l’area viene dotata di un centro maternità/consultorio dove sono collocati servizi di assistenza per le donne in gravidanza e dove le stesse possono confrontare e condividere la propria esperienza con le altre future mamme. L’intero intervento è guidato a livello progettuale anche da criteri di ecoefficienza come educazione alla responsabilità ambientale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lamantino (Trichechus manatus) appartiene alla famiglia dei Trichechidae, vivono nel golfo del messico e lungo le coste Atlantiche dell’America centrale. Considerando i comportamenti abituali di questa specie in natura risulta essere difficoltoso investigare il comportamento sociale. Spesso gli individui che producono un suono non riescono ad essere identificati e quindi il contesto in cui un segnale viene prodotto rimane sconosciuto. L’osservazione ed il monitoraggio di individui in ambiente controllato può portare un contributo considerevole nell’aumentare le conoscenze di questa specie. In questo studio abbiamo potuto osservare il comportamento di due giovani esemplari maschi mantenuti all’Acquario di Genova. In questo progetto di ricerca l’obbiettivo è quello di caratterizzare i comportamenti giornalieri e quindi le abitudini dei due esemplari in esame; inoltre mediante l’analisi dei vocalizzi e dei contesti nei quali vengono prodotti i segnali, si è cercato di individuare le abitudini acustiche di questi esemplari. Gli animali sono stati osservati per 8giorni per un totale di 192 ore di registrazioni acustiche e osservazioni comportamentali; i segnali sono stati registrati con l’ausilio di un idrofono su un PC, con un range di frequenza tra i 100Hz fino ai 22kHz. I segnali acustici cosi raccolti sono stati analizzati tramite Adobe Audition 3.0, che ha fornito le immagini dei vari spettri d’onda. Questi dati acustici e comportamentali hanno permesso di identificare 6 differenti pattern comportamentali e 10 tipologie di segnali acustici. L’analisi di questi dati hanno permesso di definire le abitudini comportamentali dei due esemplari le differenze e l’andamento della “giornata tipo”. Confrontando i contesti comportamentali nei quali i segnali sono stati emessi si sono potuti evidenziare i momenti in cui i segnali vengono emessi e quindi quando avviene comunicazione tra questi due esemplari.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio di cambiamenti strutturali inter o intramolecolari nei materiali polimerici può essere effettuato mediante la spettroscopia infrarossa associata a quella di correlazione bidimensionale (2D-COS, two-dimensional correlation spectroscopy). Questa tecnica, applicata a campioni del copolimero stirene-acrilonitrile (SAN) a diversa composizione, consente di interpretare variazioni spettrali riscontrate e l’andamento della temperatura di transizione vetrosa, Tg. L’applicazione della spettroscopia di correlazione bidimensionale (2D-COS) e l’analisi dell’intensità delle bande spettrali in funzione del contenuto di AN nel copolimero SAN, prevedono lo sviluppo di un metodo per correggere gli spettri IR da instabilità dovute alla linea di base e da variazioni derivanti dallo spessore dei film. A tal fine si sottopone lo spettro IR di ogni film di SAN alla correzione della linea di base e successivamente al processo di normalizzazione. La banda di vibrazione sottoposta ad analisi 2D-COS è quella corrispondente allo stretching del gruppo −C≡N in quanto presenta le maggiori variazioni in funzione della composizione del copolimero. La 2D-COS evidenzia che tali variazioni sono attribuibili alla variazione contemporanea di frequenza di assorbimento, larghezza e intensità di banda. A partire da questa osservazione si può dedurre la presenza nel materiale di un’interazione dipolo-dipolo di tipo intra-molecolare tra i gruppi nitrilici.