218 resultados para teorema della divergenza identità di Green funzioni armoniche formule di media teorema di Koebe


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca è stata incentrata su di una fonte di grande importanza per una più puntuale comprensione della vita del regno di Federico II: il Quaternus excadenciarum Capitinate. Essa ha tenuto presenti le altre fonti coeve: Liber Augustalis, Registro della Cancelleria di Federico II degli anni 1239-1240, fonti cronachistiche. Il Quaternus è un inventario di talune particolari categorie di beni demaniali, le excadencie, la cui concessione è scaduta e pertanto ritornano al fisco. Tali beni sono situati in 33 località del Giustizierato di Capitanata. Senza data, è stato redatto tra il 1249 e il 1250 (risultano inseriti i beni confiscati a Pier della Vigna, bollato di tradimento nel febbraio 1249). Obiettivo della ricerca è stato duplice: 1) analizzare e approfondire le questioni di natura giuridico-istituzionale ed economica implicate nel documento e tentare di ricostruire uno spaccato della Capitanata del XIII sec.; 2) offrire una nuova e più corretta edizione del testo. La prima parte dello studio ha inteso inquadrare il documento nel contesto delle esigenze proprie delle monarchie del tempo di tenere sotto controllo i beni immobili di ciascun regno ed analizzare la politica economica fridericiana (capp. I, II). La seconda parte è stata dedicata agli approfondimenti innanzi ricordati. Essa è struttura in sette capitoli (I. Il Quaternus excadenciarum Capitinate; II. Beni e diritti costituenti le excadencie Capitinate; III. Il Quaternus come specchio di una politica dispotica; IV. La gestione delle excadencie; V. Pesi e misure; VI. Monete e valori; VII. Il Quaternus come documento sullo stato della Capitanata nel XIII secolo). In appendice: tabelle che offrono per ciascuna delle 33 località considerate, puntuali indicazioni dei beni e diritti censiti, dei nomi dei titolari delle concessioni (spesso personaggi di rango) e delle relative rendite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di ricerca si propone di discutere il contributo che l’analisi dell’evoluzione storica del pensiero politico occidentale e non occidentale riveste nel percorso intellettuale compiuto dai fondatori della teoria contemporanea dell’approccio delle capacità, fondata e sistematizzata nei suoi contorni speculativi a partire dagli anni Ottanta dal lavoro congiunto dell’economista indiano Amartya Sen e della filosofa dell’Università di Chicago Martha Nussbaum. Ci si ripropone di dare conto del radicamento filosofico-politico del lavoro intellettuale di Amartya Sen, le cui concezioni economico-politiche non hanno mai rinunciato ad una profonda sensibilità di carattere etico, così come dei principali filoni intorno ai quali si è imbastita la versione nussbaumiana dell’approccio delle capacità a partire dalla sua ascendenza filosofica classica in cui assume una particolare primazia il sistema etico-politico di Aristotele. Il pensiero politico moderno, osservato sotto il prisma della riflessione sulla filosofia della formazione che per Sen e Nussbaum rappresenta la “chiave di volta” per la fioritura delle altre capacità individuali, si organizzerà intorno a tre principali indirizzi teorici: l’emergenza dei diritti positivi e sociali, il dibattito sulla natura della consociazione nell’ambito della dottrina contrattualista e la stessa discussione sui caratteri delle politiche formative. La sensibilità che Sen e Nussbaum mostrano nei confronti dell’evoluzione del pensiero razionalista nel subcontinente che passa attraverso teorici antichi (Kautylia e Ashoka) e moderni (Gandhi e Tagore) segna il tentativo operato dai teorici dell’approccio delle capacità di contrastare concezioni politiche contemporanee fondate sul culturalismo e l’essenzialismo nell’interpretare lo sviluppo delle tradizioni culturali umane (tra esse il multiculturalismo, il comunitarismo, il neorealismo politico e la teoria dei c.d. “valori asiatici”) attraverso la presa di coscienza di un corredo valoriale incentrato intorno al ragionamento rintracciabile (ancorché in maniera sporadica e “parallela”) altresì nelle tradizioni culturali e politiche non occidentali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo del lavoro è stato lo sviluppo e la validazione di nuovi bioassay e biomarker quali strumenti da utilizzare in un approccio ecotossicologico integrato per il biomonitoraggio di ambienti marino-costieri interessati da impatto antropico negli organismi che vivono in tali ambienti. L’ambiente reale impiegato per l’applicazione in campo è la Rada di Augusta (Siracusa, Italia). Una batteria di bioassay in vivo e in vitro è stata indagata quale strumento di screening per la misura della tossicità dei sedimenti. La batteria selezionata ha dimostrato di possedere i requisiti necessari ad un applicazione di routine nel monitoraggio di ambienti marino costieri. L’approccio multimarker basato sull’impiego dell’organismo bioindicatore Mytilus galloprovincialis in esperimenti di traslocazione ha consentito di valutare il potenziale applicativo di nuovi biomarker citologici e molecolari di stress chimico parallelamente a biomarker standardizzati di danno genotossico ed esposizione a metalli pesanti. I mitili sono stati traslocati per 45 giorni nei siti di Brucoli (SR) e Rada di Augusta, rispettivamente sito di controllo e sito impattato. I risultati ottenuti supportano l’applicabilità delle alterazioni morfometriche dei granulociti quale biomarker di effetto, direttamente correlato allo stato di salute degli organismi che vivono in un dato ambiente. Il significativo incremento dell’area dei lisosomi osservato contestualmente potrebbe riflettere un incremento dei processi degradativi e dei processi autofagici. I dati sulla sensibilità in campo suggeriscono una valida applicazione della misura dell’attività di anidrasi carbonica in ghiandola digestiva come biomarker di stress in ambiente marino costiero. L’utilizzo delle due metodologie d’indagine (bioassay e biomarker) in un approccio ecotossicologico integrato al biomonitoraggio di ambienti marino-costieri offre uno strumento sensibile e specifico per la valutazione dell’esposizione ad inquinanti e del danno potenziale esercitato dagli inquinanti sugli organismi che vivono in un dato ambiente, permettendo interventi a breve termine e la messa a punto di adeguati programmi di gestione sostenibile dell’ambiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La memoria pubblica della Sho'ah è inscritta in una quantità proliferante di immagini e spazi memoriali. Ciò è riscontrabile in modo particolare nei principali "siti dello sterminio" assurti a simbolo nel corso degli anni, mentre molti altri "luoghi di memoria" della Deportazione soffrono di una condizione di intrinseca debolezza. Essa è riconducibile in primo luogo alla fragilità del dato materiale, i cui resti ormai privi di eloquenza risultano difficili da interpretare e conservare, in secondo luogo alla sovrapposizione di memorie concorrenti venutesi a determinare in conseguenza dei riusi successivi a cui queste strutture sono spesso andate soggette dopo la guerra, infine alla difficoltà di rendere espressione compiuta alla tragedia della Deportazione. Il caso del campo di Fossoli è paradigmatico: esso interroga la capacità del progetto di "dare forma" al palinsesto delle memorie, rendendo possibile il riconoscimento ed esplicitando una significazione delle tracce, senza aggiungere ulteriori interpretazioni. Lo spazio e il paesaggio, in quanto linguaggi indentitari, possono offrirsi come strumenti da questo punto di vista. Michel De Certeau vi fa riferimento quando afferma che lo spazio coincide con «l’effetto prodotto dalle operazioni che lo orientano, che lo circostanziano, o temporalizzano e lo fanno funzionare come unità polivalente di programmi conflittuali o di prossimità contrattuali». Lo spazio gioca un ruolo cruciale nel conformare l'esperienza del presente e allo stesso tempo nel rendere visibili le esperienze passate, compresse nella memoria collettiva. Lo scopo di questa ricerca è interrogare le potenzialità spaziali del luogo, considerate sotto il profilo culturale e semantico, come valida alternativa alla forma-monumento nella costruzione di una o più narrazioni pertinenti della memoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa di analizzare la produzione narrativa della scrittrice messicana di frontiera Cristina Rivera Garza. In particolare, si pone l'accento sull'uso della strategia dell'intertestualità. A partire dalle fondamentali teorie classiche di Julia Kristeva, Gérard Genette e molti altri, lo scopo è quello di proporre un nuovo modello interpretativo che possa considerare la peculiarità della letteratura ispano-americana e inglobare la particolarità della proposta narrativa della scrittrice in oggetto. Attraverso l'innovativo studio di Roberto González Echevarría, l'obiettivo è quello di analizzare non solo i rapporti che si stabiliscono tra opere che appartengono al sistema della letteratura, ma anche i produttivi rapporti che si stabiliscono fra testi letterari e testi che non appartengono al sistema della letteratura. In particolare si analizza: a) le relazioni tra Storia e narrazione nel romanzo storico messicano tra XX e XXI secolo; b) le relazioni tra cronaca (considerata come genere tout court e come insieme di notizie giornalistiche) e narrazione nel romanzo poliziesco messicano contemporaneo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto si concentra sull’analisi ed il commento del libro dei conti di Lorenzo Lotto. Esso viene conservato nell’Archivio storico della Santa Casa di Loreto, ed è meglio conosciuto con il nome apocrifo di Libro di spese diverse. Possiamo considerarlo uno dei più significativi documenti del Rinascimento italiano: infatti esso ci parla dei rapporti che l’artista ha intessuto con committenti, colleghi ed amici, rivelando tanto la sua condotta di vita che la sua attività. È una ricerca che tenta di concentrarsi sull’artista attraverso una lettura più corretta di questa fonte: infatti in passato il Libro di spese diverse era considerato un diario e studiato attraverso una visione non consona al genere di riferimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando si parla di traduzione, si pensa spesso solo al risultato di un processo, valutato e analizzato come tale. Sembra ci si dimentichi del fatto che, prima di arrivare a quel risultato finale, il traduttore applica più o meno consapevolmente tutta quella serie di strumenti di analisi, critica, correzione, rilettura, riformulazione e modifica che rientrano nell’attività di revisione. A questa prima fase, di cui ogni traduttore fa esperienza nel lavorare alla propria traduzione, segue di norma una fase successiva in cui la traduzione è rivista da un’altra figura professionale della filiera editoriale (di solito, e auspicabilmente, un altro traduttore) e infine altre fasi ancora del processo di lavorazione e pubblicazione del testo tradotto. Oltre a essere un’attività cruciale di ogni attività di traduzione e processo editoriale, la revisione riveste anche un fondamentale ruolo didattico nella formazione dei traduttori. L’idea alla base di questo progetto di ricerca nasce dal bisogno di triangolare riflessioni e dati concreti sulla revisione provenienti dalla ricerca accademica, dalla pratica professionale e dall’esperienza didattico-formativa, in un triplice approccio che informa l’intero progetto, di cui si illustrano i principali obiettivi: • formulare una nuova e chiara definizione sommativa del termine “revisione” da potersi utilizzare nell’ambito della ricerca, della didattica e della prassi professionale; • fornire una panoramica tematica, critica e aggiornata sulla ricerca accademica e non-accademica in materia di revisione; • condurre un’indagine conoscitiva (tramite compilazione di questionari diversificati) sulla pratica professionale della revisione editoriale in Italia, allo scopo di raccogliere dati da traduttori e revisori, fornirne una lettura critica e quindi individuare peculiarità e criticità di questa fase del processo di lavorazione del libro tradotto; • presentare ipotesi di lavoro e suggerimenti su metodi e strumenti da applicare all’insegnamento della revisione in contesti didattici e formativi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio si propone di individuare i doveri e le responsabilità, di tipo risarcitorio, degli amministratori, in particolare degli amministratori della società che esercita attività di direzione e coordinamento, in una situazione di crisi o insolvenza nel gruppo, anche in un’ottica di “prevenzione”, e, più precisamente, il complesso di regole di corretta gestione societaria e imprenditoriale, con le quali il silenzio della legge fallimentare in tema di gruppi di società non può non confrontarsi. In particolare, si indagherà sulla possibilità di individuare nel nostro ordinamento giuridico, nel momento di emersione della crisi, doveri di comportamento in capo agli organi di governo della società o ente che esercita attività di direzione e coordinamento, al fine di fronteggiare la crisi, evitando il peggioramento della stessa, ovvero per un risanamento anticipato e, quindi, più suscettibile di esito positivo, nella prospettiva di tutela dei soci c.d. esterni e dei creditori delle società figlie e, nello stesso tempo, dei soci della capogruppo medesima e, quindi, in una prospettiva più ampia e articolata rispetto a una società individualmente considerata. L’oggetto dell’analisi viene introdotto mediante un inquadramento generale della disciplina in materia di gruppi di società presente nel nostro sistema normativo, con particolare riguardo alla disciplina dell’attività di direzione e coordinamento introdotta dal legislatore della riforma del diritto societario (d.lgs. 17 gennaio 2003, n. 6) con gli artt. 2497 ss. cod. civ.. Nella seconda parte verranno individuati e approfonditi i criteri e i principi dai quali ricavare le regole di governance nei gruppi di società e la relativa responsabilità degli amministratori nelle situazioni di crisi nel gruppo. Sulla scorta delle suddette argomentazioni, nell'ultima parte verranno individuate le regole di gestione nell'ambito del gruppo nel momento di “emersione” della crisi e, in particolare, i possibili “strumenti” che il nostro legislatore offre per fronteggiarla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato suddiviso in tre parti. L’argomento principale è stato lo “Studio della componente antiossidante di oli ottenuti da olive mediante l’utilizzo di diversi sistemi e parametri tecnologici”. E’ ben noto come la qualità ossidativa di un olio di oliva dipenda oltre che dalla sua composizione in acidi grassi, dalla presenza di composti caratterizzati da un elevata attività antiossidante, ovvero le sostanze fenoliche. I composti fenolici contribuiscono quindi in maniera preponderante alla shelf life dell’olio extravergine di oliva. Inoltre sono state riscontrate delle forti correlazione tra alcune di queste sostanze e gli attributi sensoriali positivi di amaro e piccante. E’ poi da sottolineare come il potere antiossidante dei composti fenolici degli oli vergini di oliva, sia stato negli ultimi anni oggetto di considerevole interesse, poiché correlato alla protezione da alcune patologie come ad esempio quelle vascolari, degenerative e tumorali. Il contenuto delle sostanze fenoliche negli oli di oliva dipende da diversi fattori: cultivar, metodo di coltivazione, grado di maturazione delle olive e ovviamente dalle operazioni tecnologiche poiché possono variare il quantitativo di questi composti estratto. Alla luce di quanto appena detto abbiamo valutato l’influenza dei fattori agronomici (metodi di agricoltura biologica, integrata e convenzionale) e tecnologici (riduzione della temperatura della materia prima, aggiunta di coadiuvanti in fase di frangitura e di gramolatura, confronto tra tre oli extravergini di oliva ottenuti mediante diversi sistemi tecnologici) sul contenuto in composti fenolici di oli edibili ottenuti da olive (paper 1-3-4). Oltre alle sostanze fenoliche, negli oli di oliva sono presenti altri composti caratterizzati da proprietà chimiche e nutrizionali, tra questi vi sono i fitosteroli, ovvero gli steroli tipici del mondo vegetale, che rappresentano la frazione dell’insaponificabile quantitativamente più importante dopo gli idrocarburi. La composizione quali-quantitativa degli steroli di un olio di oliva è una delle caratteristiche analitiche più importanti nella valutazione della sua genuinità; infatti la frazione sterolica è significativamente diversa in funzione dell’origine botanica e perciò viene utilizzata per distinguere tra di loro gli oli e le loro miscele. Il principale sterolo nell’olio di oliva è il β- sitosterolo, la presenza di questo composto in quantità inferiore al 90% è un indice approssimativo dell’aggiunta di un qualsiasi altro olio. Il β-sitosterolo è una sostanza importante dal punto di vista della salute, poiché si oppone all’assorbimento del colesterolo. Mentre in letteratura si trovano numerosi lavori relativi al potere antiossidante di una serie di composti presenti nell’olio vergine di oliva (i già citati polifenoli, ma anche carotenoidi e tocoferoli) e ricerche che dimostrano invece come altri composti possano promuovere l’ossidazione dei lipidi, per quanto riguarda il potere antiossidante degli steroli e dei 4- metilsteroli, vi sono ancora poche informazioni. Per questo è stata da noi valutata la composizione sterolica in oli extravergini di oliva ottenuti con diverse tecnologie di estrazione e l’influenza di questa sostanza sulla loro stabilità ossidativa (paper 2). E’ stato recentemente riportato in letteratura come lipidi cellulari evidenziati attraverso la spettroscopia di risonanza nucleare magnetica (NMR) rivestano una importanza strategica da un punto di vista funzionale e metabolico. Questi lipidi, da un lato un lato sono stati associati allo sviluppo di cellule neoplastiche maligne e alla morte cellulare, dall’altro sono risultati anche messaggeri di processi benigni quali l’attivazione e la proliferazione di un normale processo di crescita cellulare. Nell’ambito di questa ricerca è nata una collaborazione tra il Dipartimento di Biochimica “G. Moruzzi” ed il Dipartimento di Scienze degli Alimenti dell’Università di Bologna. Infatti, il gruppo di lipochimica del Dipartimento di Scienze degli Alimenti, a cui fa capo il Prof. Giovanni Lercker, da sempre si occupa dello studio delle frazioni lipidiche, mediante le principali tecniche cromatografiche. L’obiettivo di questa collaborazione è stato quello di caratterizzare la componente lipidica totale estratta dai tessuti renali umani sani e neoplastici, mediante l’utilizzo combinato di diverse tecniche analitiche: la risonanza magnetica nucleare (1H e 13C RMN), la cromatografia su strato sottile (TLC), la cromatografia liquida ad alta prestazione (HPLC) e la gas cromatografia (GC) (paper 5-6-7)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca oggetto di questa tesi, come si evince dal titolo stesso, è volta alla riduzione dei consumi per vetture a forte carattere sportivo ed elevate prestazioni specifiche. In particolare, tutte le attività descritte fanno riferimento ad un ben definito modello di vettura, ovvero la Maserati Quattroporte. Lo scenario all’interno del quale questo lavoro si inquadra, è quello di una forte spinta alla riduzione dei cosiddetti gas serra, ossia dell’anidride carbonica, in linea con quelle che sono le disposizioni dettate dal protocollo di Kyoto. La necessità di ridurre l’immissione in atmosfera di CO2 sta condizionando tutti i settori della società: dal riscaldamento degli edifici privati a quello degli stabilimenti industriali, dalla generazione di energia ai processi produttivi in senso lato. Nell’ambito di questo panorama, chiaramente, sono chiamati ad uno sforzo considerevole i costruttori di automobili, alle quali è imputata una percentuale considerevole dell’anidride carbonica prodotta ogni giorno e riversata nell’atmosfera. Al delicato problema inquinamento ne va aggiunto uno forse ancor più contingente e diretto, legato a ragioni di carattere economico. I combustibili fossili, come tutti sanno, sono una fonte di energia non rinnovabile, la cui disponibilità è legata a giacimenti situati in opportune zone del pianeta e non inesauribili. Per di più, la situazione socio politica che il medio oriente sta affrontando, unita alla crescente domanda da parte di quei paesi in cui il processo di industrializzazione è partito da poco a ritmi vertiginosi, hanno letteralmente fatto lievitare il prezzo del petrolio. A causa di ciò, avere una vettura efficiente in senso lato e, quindi, a ridotti consumi, è a tutti gli effetti un contenuto di prodotto apprezzato dal punto di vista del marketing, anche per i segmenti vettura più alti. Nell’ambito di questa ricerca il problema dei consumi è stato affrontato come una conseguenza del comportamento globale della vettura in termini di efficienza, valutando il miglior compromesso fra le diverse aree funzionali costituenti il veicolo. Una parte consistente del lavoro è stata dedicata alla messa a punto di un modello di calcolo, attraverso il quale eseguire una serie di analisi di sensibilità sull’influenza dei diversi parametri vettura sul consumo complessivo di carburante. Sulla base di tali indicazioni, è stata proposta una modifica dei rapporti del cambio elettro-attuato con lo scopo di ottimizzare il compromesso tra consumi e prestazioni, senza inficiare considerevolmente queste ultime. La soluzione proposta è stata effettivamente realizzata e provata su vettura, dando la possibilità di verificare i risultati ed operare un’approfondita attività di correlazione del modello di calcolo per i consumi. Il beneficio ottenuto in termini di autonomia è stato decisamente significativo con riferimento sia ai cicli di omologazione europei, che a quelli statunitensi. Sono state inoltre analizzate le ripercussioni dal punto di vista delle prestazioni ed anche in questo caso i numerosi dati rilevati hanno permesso di migliorare il livello di correlazione del modello di simulazione per le prestazioni. La vettura con la nuova rapportatura proposta è stata poi confrontata con un prototipo di Maserati Quattroporte avente cambio automatico e convertitore di coppia. Questa ulteriore attività ha permesso di valutare il differente comportamento tra le due soluzioni, sia in termini di consumo istantaneo, che di consumo complessivo rilevato durante le principali missioni su banco a rulli previste dalle normative. L’ultima sezione del lavoro è stata dedicata alla valutazione dell’efficienza energetica del sistema vettura, intesa come resistenza all’avanzamento incontrata durante il moto ad una determinata velocità. Sono state indagate sperimentalmente le curve di “coast down” della Quattroporte e di alcune concorrenti e sono stati proposti degli interventi volti alla riduzione del coefficiente di penetrazione aerodinamica, pur con il vincolo di non alterare lo stile vettura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per quanto riguarda le costruzioni in conglomerato cementizio armato gettato in opera, i sistemi strutturali più comunemente utilizzati sono quelli a telaio (con trasmissione di momento flettente), a setti portanti o una combinazione di entrambi. A partire dagli anni ’60, numerosissimi sono stati gli studi relativamente al comportamento sismico di strutture in c.a. a telaio. Lo stesso si può affermare per le costruzioni costituite da pareti miste a telai. In particolare, l’argomento della progettazione sismica di tali tipologie di edifici ha sempre riguardato soprattutto gli edifici alti nei quali, evidentemente, l’impiego delle pareti avveniva allo scopo di limitarne la elevata deformabilità. Il comportamento sismico di strutture realizzate interamente a pareti portanti in c.a. è stato meno studiato negli anni, nonostante si sia osservato che edifici realizzati mediante tali sistemi strutturali abbiano mostrato, in generale, pregevoli risorse di resistenza nei confronti di terremoti anche di elevata intensità. Negli ultimi 10 anni, l’ingegneria sismica si sta incentrando sull’approfondimento delle risorse di tipologie costruttive di cui si è sempre fatto largo uso in passato (tipicamente nei paesi dell’Europa continentale, in America latina, negli USA e anche in Italia), ma delle quali mancavano adeguate conoscenze scientifiche relativamente al loro comportamento in zona sismica. Tali tipologie riguardano sostanzialmente sistemi strutturali interamente costituiti da pareti portanti in c.a. per edifici di modesta altezza, usualmente utilizzati in un’edilizia caratterizzata da ridotti costi di realizzazione (fabbricati per abitazioni civili e/o uffici). Obiettivo “generale” del lavoro di ricerca qui presentato è lo studio del comportamento sismico di strutture realizzate interamente a setti portanti in c.a. e di modesta altezza (edilizia caratterizzata da ridotti costi di realizzazione). In particolare, le pareti che si intendono qui studiare sono caratterizzate da basse percentuali geometriche di armatura e sono realizzate secondo la tecnologia del cassero a perdere. A conoscenza dello scrivente, non sono mai stati realizzati, fino ad oggi, studi sperimentali ed analitici allo scopo di determinare il comportamento sismico di tali sistemi strutturali, mentre è ben noto il loro comportamento statico. In dettaglio, questo lavoro di ricerca ha il duplice scopo di: • ottenere un sistema strutturale caratterizzato da elevate prestazioni sismiche; • mettere a punto strumenti applicativi (congruenti e compatibili con le vigenti normative e dunque immediatamente utilizzabili dai progettisti) per la progettazione sismica dei pannelli portanti in c.a. oggetto del presente studio. Al fine di studiare il comportamento sismico e di individuare gli strumenti pratici per la progettazione, la ricerca è stata organizzata come segue: • identificazione delle caratteristiche delle strutture studiate, mediante lo sviluppo/specializzazione di opportune formulazioni analitiche; • progettazione, supervisione, ed interpretazione di una estesa campagna di prove sperimentali eseguita su pareti portanti in c.a. in vera grandezza, al fine di verificarne l’efficace comportamento sotto carico ciclico; • sviluppo di semplici indicazioni (regole) progettuali relativamente alle strutture a pareti in c.a. studiate, al fine di ottenere le caratteristiche prestazionali desiderate. I risultati delle prove sperimentali hanno mostrato di essere in accordo con le previsioni analitiche, a conferma della validità degli strumenti di predizione del comportamento di tali pannelli. Le elevatissime prestazioni riscontrate sia in termini di resistenza che in termini di duttilità hanno evidenziato come le strutture studiate, così messe a punto, abbiano manifestato un comportamento sismico più che soddisfacente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto della presente tesi di ricerca è l’analisi della situazione attuale della protezione degli interessi finanziari delle Comunità Europee, oltre che le sue prospettive di futuro. Il lavoro è suddiviso in due grandi parti. La prima studia il regime giuridico del Diritto sanzionatorio comunitario, cioè, la competenza sanzionatoria dell’Unione Europea. Questa sezione è stata ricostruita prendendo in considerazione i precetti normativi del Diritto originario e derivato, oltre che le principali sentenze della Corte di Giustizia, tra cui assumono particolare rilievo le sentenze di 27 ottobre 1992, Germania c. Commissione, affare C-240/90 e di 13 settembre 2005 e di 23 ottobre 2007, Commissione c. Consiglio, affari C-176/03 e C-440/05. A questo segue l’analisi del ruolo dei diritti fondamentali nell’ordinamento comunitario, così come la rilevanza della Convenzione Europea dei Diritti dell’Uomo e la Corte Europea dei Diritti dell’Uomo. Il secondo capitolo si sofferma particolarmente sullo studio delle sanzioni comunitarie, classificandole in ragione della loro natura giuridica alla luce anche dei principi generali di legalità, di proporzionalità, di colpevolezza e del non bis in idem. La seconda sezione sviluppa un’analisi dettagliata del regime giuridico della protezione degli interessi finanziari comunitari. Questa parte viene costruita indagando tutta l’evoluzione normativa e istituzionale, in considerazione anche delle novità più recenti (ad esempio, l’istituzione del Pubblico Ministero Europeo). In questo contesto si definisce il contenuto del concetto di interessi finanziari comunitari, dato che non esiste un’analoga definizione comunitaria della fattispecie. L’attenzione del dottorando si concentra poi sulla Convenzione avente ad oggetto la tutela degli interessi finanziari delle Comunità Europee e i regolamenti del Consiglio n. 2988/95 e 2185/96, che costituiscono la parte generale del Diritto sanzionatorio comunitario. Alla fine si esamina la ricezione della Convenzione PIF nel Codice Penale spagnolo e i principali problemi di cui derivano. L’originalità dell’approccio proposto deriva dell’assenza di un lavoro recente che, in modo esclusivo e concreto, analizzi la protezione amministrativa e penale degli interessi finanziari della Comunità. Inoltre, la Carta Europea di Diritti Fondamentali e il Trattato di Lisbona sono due grandi novità che diventeranno una realtà tra poco tempo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca indaga le dinamiche socio - economiche in atto in rapporto con le trasformazioni territoriali e valuta in quale misura la pianificazione territoriale ed urbanistica sia in grado di soddisfare le attuali esigenze nella gestione del territorio, urbanizzato e non. La riflessione parte dalla necessità di capire come un territorio possa conservare vitalità nel momento in cui si ritrova all’interno di un sistema di dinamiche che non si rivolge più ad ambiti di riferimento vicini (fino ad una decina d’anni fa la competitività veniva misurata, generalmente, tra regioni contermini, al massimo con riferimento ai trend nazionali), ma che necessita di confrontarsi per lo meno con le realtà regionali europee, se non, per certi versi, con la scala mondiale, globale appunto. La generalità della tematica ha imposto, di conseguenza, l’individuazione di un case book al quale riferirsi così da approfondirla attraverso una conoscenza diretta di un preciso ambito territoriale. È stato scelto, quale esemplificazione, il territorio della regione Veneto, con particolare riferimento all’area centrale. La ragione di tale scelta è da individuarsi, oltre che in motivi meramente strumentali, nel fatto che il Veneto, tra le regioni italiane, tuttora si configura come un territorio soggetto a forti trasformazioni indotte dalle dinamiche socio - economiche. Infatti da un primo periodo veneto, legato alla costruzione dell’armatura territoriale articolata su una molteplicità di poli diffusi sul territorio, si è passati al Secondo Veneto, quello della diffusione produttiva, dei capannoni, della marmellata urbanistica, del consumo del suolo. L’epoca attuale risponde poi ad un Terzo Veneto, un periodo forse di transizione verso un nuovo assetto. Il punto di partenza è stato dunque quello della delimitazione dell’area di riferimento, attraverso il riconoscimento di quei caratteri territoriali che la contraddistinguono da altre aree all’interno della regione stessa e su scala europea. Dopo una prima descrizione in chiave descrittiva e storico - evolutiva rivolta alla comprensione dei fenomeni in atto (diffuso e frammentazione insediativa tra i principali) si è passati ad una lettura quantitativa che consentisse, da un lato, di comprendere meglio alcuni caratteri della Regione e, dall’altro, di confrontarla con la scala globale, che si è scelto essere per la realtà considerata quella dell’Unione Europea. Le problematiche, i punti di forza e di debolezza emersi hanno consentito di formulare alcune ipotesi volte al miglioramento del territorio dell’area centrale veneta attraverso un processo che individuasse, non solo gli attori interessati alla trasformazione, ma anche gli strumenti maggiormente idonei per la realizzazione degli stessi. Sono emerse così le caratteristiche che potrebbe assumere il Quarto Veneto, il Veneto che verrà. I temi trattati spaziano dall’individuazione dei metodi di governance che, tramite il processo di visioning, siano in grado di individuare le priorità, di definire l’intensità d’uso, la vocazione dei luoghi e chi siano gli operatori interessati, all’integrazione tra i valori della storia e della cultura territoriale con i nuovi modi del fare (nuove tecnologie), fino all’individuazione di strumenti di coesione economica, sociale e territoriale per scongiurare quei rischi di disgregazione insiti nella globalizzazione. La ricerca si è dunque concretizzata attraverso un approccio euristico alla problematica delle trasformazioni territoriali, in cui il tema della scala di riferimento (locale - globale), ha consentito di valutare esperienze, tecniche e progetti volti al raggiungimento di livelli di sviluppo territoriale ed urbano sostenibili.