942 resultados para valutazione di derivati, Fourier-cosine expansion, serie coseno


Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION – In human medicine, diabetes mellitus (DM), hypertension, proteinuria and nephropathy are often associated although it is still not clear whether hypertension is the consequence or the cause of nephropathy and albuminuria. Microalbuminuria, in humans, is an early and sensitive marker which permits timely and effective therapy in the early phase of renal damage. Conversely, in dogs, these relationships were not fully investigated, even though hypertension has been associated with many diseases (Bodey and Michell, 1996). In a previous study, 20% of diabetic dogs were found proteinuric based on a U:P/C > 1 and 46% were hypertensive; this latter finding is similar to the prevalence of hypertension in diabetic people (40-80%) (Struble et al., 1998). In the same canine study, hypertension was also positively correlated with the duration of the disease, as is the case in human beings. Hypertension was also found to be a common complication of hypercortisolism (HC) in dogs, with a prevalence which varies from 50 (Goy-Thollot et al., 2002) to 80% (Danese and Aron, 1994).The aim of our study was to evaluate the urinary albumin to creatinine ratio (U:A/C) in dogs affected by Diabetes Mellitus and HC in order to ascertain if, as in human beings, it could represent an early and more sensitive marker of renal damage than U:P/C. Furthermore, the relationship between proteinuria and hypertension in DM and HC was also investigated. MATERIALS AND METHODS – Twenty dogs with DM, 14 with HC and 21 healthy dogs (control group) were included in the prospective case-control study. Inclusion criteria were hyperglycaemia, glicosuria and serum fructosamine above the reference range for DM dogs and a positive ACTH stimulation test and/or low-dose dexamethasone test and consistent findings of HC on abdominal ultrasonography in HC dogs. Dogs were excluded if affected by urinary tract infections and if the serum creatinine or urea values were above the reference range. At the moment of inclusion, an appropriate therapy had already been instituted less than 1 month earlier in 12 diabetic dogs. The control dogs were considered healthy based on clinical exam and clinicopathological findings. All dogs underwent urine sample collection by cystocentesis and systemic blood pressure measurement by means of either an oscillometric device (BP-88 Next, Colin Corporation, Japan) or by Doppler ultrasonic traducer (Minidop ES-100VX, Hadeco, Japan). The choice of method depended on the dog’s body weight: Doppler ultrasonography was employed in dogs < 20 kg of body weight and the oscillometric method in the other subjects. Dogs were considered hypertensive whenever systemic blood pressure was found ≥ 160 mmHg. The urine was assayed for U:P/C and U:A/C (Gentilini et al., 2005). The data between groups were compared using the Mann-Whitney U test. The reference ranges for U:P/C and U:A/C had already been established by our laboratory as 0.6 and 0.05, respectively. U:P/C and U:A/C findings were correlated to systemic blood pressure and Spearman R correlation coefficients were calculated. In all cases, p < 0.05 was considered statistically significant. RESULTS – The mean ± sd urinary albumin concentration in the three groups was 1.79 mg/dl ± 2.18; 20.02 mg/dl ± 43.25; 52.02 mg/dl ± 98.27, in healthy, diabetic and hypercortisolemic dogs, respectively. The urine albumin concentration differed significantly between healthy and diabetic dogs (p = 0.008) and between healthy and HC dogs (p = 0.011). U:A/C values ranged from 0.00 to 0.34 (mean ± sd 0.02 ± 0.07), 0.00 to 6.72 (mean ± sd 0.62 ± 1.52) and 0.00 to 5.52 (mean ± sd 1.27 ± 1.70) in the control, DM and HC groups, respectively; U:P/C values ranged from 0.1 to 0.6 (mean ± sd 0.17 ± 0.15) 0.1 to 6.6 (mean ± sd 0.93 ± 1.15) and 0.2 to 7.1 (mean ± sd 1.90 ± 2.11) in the control, DM and HC groups, respectively. In diabetic dogs, U:A/C was above the reference range in 11 out of 20 dogs (55%). Among these, 5/20 (25%) showed an increase only in the U:A/C ratio while, in 6/20 (30%), both the U:P/C and the U:A/C were abnormal. Among the latter, 4 dogs had already undergone therapy. In subjects affected with HC, U:P/C and U:A/C were both increased in 10/14 (71%) while in 2/14 (14%) only U:A/C was above the reference range. Overall, by comparing U:P/C and U:A/C in the various groups, a significant increase in protein excretion in disease-affected animals compared to healthy dogs was found. Blood pressure (BP) in diabetic subjects ranged from 88 to 203 mmHg (mean ± sd 143 ± 33 mmHg) and 7/20 (35%) dogs were found to be hypertensive. In HC dogs, BP ranged from 116 to 200 mmHg (mean ± sd 167 ± 26 mmHg) and 9/14 (64%) dogs were hypertensive. Blood pressure and proteinuria were not significantly correlated. Furthermore, in the DM group, U:P/C and U:A/C were both increased in 3 hypertensive dogs and 2 normotensive dogs while the only increase of U:A/C was observed in 2 hypertensive and 3 normotensive dogs. In the HC group, the U:P/C and the U:A/C were both increased in 6 hypertensive and 2 normotensive dogs; the U:A/C was the sole increased parameter in 1 hypertensive dog and in 1 dog with normal pressure. DISCUSSION AND CONCLUSION- The findings of this study suggest that, in dogs affected by DM and HC, an increase in U:P/C, U:A/C and systemic hypertension is frequently present. Remarkably, some dogs affected by both DM and HC showed an U:A/C but not U:P/C above the reference range. In diabetic dogs, albuminuria was observed in 25% of the subjects, suggesting the possibility that this parameter could be employed for detecting renal damage at an early phase when common semiquantiative tests and even U:P/C fall inside the reference range. In HC dogs, a higher number of subjects with overt proteinuria was found while only 14% presented an increase only in the U:A/C. This fact, associated with a greater number of hypertensive dogs having HC rather than DM, could suggest a greater influence on renal function by the mechanisms involved in hypertension secondary to hypercortisolemia. Furthermore, it is possible that, in HC dogs, the diagnosis was more delayed than in DM dogs. However, the lack of a statistically significant correlation between hypertension and increased protein excretion as well as the apparently random distribution of proteinuric subjects in normotensive and hypertensive cases, imply that other factors besides hypertension are involved in causing proteinuria. Longitudinal studies are needed to further investigate the relationship between hypertension and proteinuria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

VILLA “CAPELLO - MORA”: PROGETTO DI RESTAURO E RIFUNZIONALIZZAZIONE Il restauro è da intendere come un intervento diretto sull’opera, e anche come sua eventuale modifica, condotta sempre sotto un rigoroso controllo tecnico-scientifico e storico-critico, se parliamo di conservazione, intendiamo l’operare in un intento di salvaguardia e di prevenzione, da attuare proprio per evitare che si debba poi intervenire con il restauro, che comprende un evento traumatico per il manufatto. Un seconda parola chiave in questo discorso è la “materia” il restauro interviene sulla materia di un monumento e questa costituisce il tramite dei valori culturali antichi, la sua conservazione e il suo restauro garantisce la trasmissione anche dei significati estetici, storici simbolici del costruito. Ma certamente influisce il tempo sulle cose per cui il progetto di restauro non può astenersi dall’intervenire, in una logica di minimo intervento, di reversibilità, di facile lettura. Il concetto di nuovo in un opera antica, concetto che a parere personale, pare centrare in pieno il problema. Il nuovo infatti “deve avere carattere di autonomia e di chiara leggibilità: come l’<> di Boito deve essere inequivocabilmente opera nuova, come prodotto figurativo e materiale autonomo, chiara ed inequivocabile espressione <>”. Ne deriva riassumendo che oggi l’obbiettivo deve essere quello di conservare da un lato senza non sotrarre altra materia alla fabbrica e di valorizzare, ossia aggiungere, nuove “presenze” di cultura contemporanea. Per questo si parlerà di progetto di restauro e rifunzionalizzazione. La fabbrica ha subito nel corso dell’ultimo decennio una serie di “rovinose” manomissioni, che a differenza di quelle operate in tempi più antichi (coincidenti con esigenze funzionali corrispondenti alla logica dell’adattare) appaiano ben più gravi, e contribuiscono a peggiorare la lettura del fabbricato. Il Veneto e soprattutto la zona intorno a Bassano del Grappa presenta una infinità di dimore padronali casini di caccia, resti di antiche residenze (colombare, oratori, ecc.) risalenti al periodo di maggior fioritura della residenza di “Villa” della Serenissima. Nel caso specifico di studio , quindi della rifunzionalizzazione dell’edificio, la domanda sorge spontanea; Come ristabilire un senso a questi spazi? E nell’ipotesi di poter realmente intervenire che cosa farne di questi oggetti?. E ultimo ma non ultimo in che modo poter ristabilire un “dialogo” con l’edificio in una lettura corretta del suo significato non solo per quel che riguarda la materia ma anche per ciò che ci trasmette nel “viverlo”, nell’usufruirne nel fatto stesso di poterlo vedere, passandoci davanti. tà. Lidea si forma prima ancora da un esigenza del territorio, il comune di Cassola dove ha sede la Villa,pur avendo un discreto numero di abitanti e collocandosi in posizione nevralgica in quanto molto vicino al centro diBasssano (ne è quasi la promulgazione), non possiede uno spazio espositivo /rappresentativo, un edificio a carattere pubblico, sede di “eventi” culturali locali e non. Villa Capello –Mora, potrebbe rispondere bene a questo tipo di utilizzo. Si è deciso di pensare ad un luogo a carattere espositivo che possa funzionare durante tutto l’anno e nei periodi etsivi includa anche il giardino esterno. Il progetto muove da due principi il principio di “reversibilità” e quello del “minimo intervento” sottolinenando volutamente che siano gli ogetti esposti e lo spazio dei locali a fare da protagonisti, Punti chiave nell’interpretazione degli spazi sono stati i percorsi, la “narrazione” degli oggetti esposti avviene per momenti e viene rimarcata nell’allestimento tramite i materiali i colori e le superfici espositive, perché nel momento in cui visito una mostra o un museo, è come se stessi vivendo la narrazione di un qualcosa, oggetto semplice od opera complessa che sia inteso nell’ambito museale-espositivo esso assume una capacità di trasmissione maggiore rispetto a qundo lo stesso ogetto si trova in un contesto differente, la luce e la sua disposizione nello spazio, fanno sì che il racconto sia narrato, bene o male, ancora più importante è lo sfondo su cui si staglia l’opera, che può essere chiuso, come una serie di scatole dentro la scatola (edificio) oppure aperto, con singole e indipendenti pannellature dove l’edificio riveste il carattere proprio di sfondo. Scelta la seconda delle due ipotesi, si è voluto rimarcare nella composizione degli interni i momenti della narrazione, così ad esempio accedendo dall’ingresso secondario (lato nord-ovest) al quale si è dato l’ingresso alla mostra, -superata la prima Hall- si viene, catapultati in uno spazio porticato in origine aperto e che prevediamo chiuso da una vetrata continua, portata a debita distanza dal colonnato. Questo spazio diventa la prima pagina del testo, una prima pagina bianca, uno spazio libero, di esposizione e non di relax e di presentazione dell’evento, uno spazio distributivo non votato solo a questo scopo, ma passibile di trasformazione. A rimarcare il percorso una pavimentazione in cemento lisciato, che invita l’accesso alle due sale espositive a sinista e a destra dell’edificio. Nell’ala a sinistra (rispetto al nord) si apre la stanza con camino seicentesco forse un tempo ad uso cucina? Sala che ospita dei pannelli a sospesi a muro e delle teche espositive appese a soffitto. L’ala di destra, diametralmente opposta, l’unica che al piano terra mantiene la pavimentazione originale, stabiliva il vero atrio d’entrata, nel XVII sec. riconoscibile da quattro colonne tuscaniche centrali a reggere un solaio ligneo, in questa stanza il percorso segnato a terra torna nella disposizione dei pannelli espositivi che si dispongono in un a formare un vero corridoio, tra uno e l’atro di questi pannelli degli spazi sufficienti a intravedere le colonne centrali, i due lati dello stretto percorso non sono paralleli e aprono in senso opposto a due restanti spazi dell’intero salone, La sala suddivisa così in queste tre parti - una di percorrenza due di esposizione - , risulta modificata nella lettura che ne annulla l’originale funzione. Questa nuova “forma”, non vuole essere permanente infatti i pannelli non sono fissi. la narrazione avviene così per momenti, per parti, , che non devono necessariamente far comprendere il “tutto”, ma suggerirlo. Così come per il percorso che non è obbligato ma suggerito. A terminare il piano altre due sale di minore dimensione e di modesto carattere, nelle quali sono presenti pannellature a parete come nella prima sala. L’allestimento prosegue al piano primo a cui si accede tramite due rampe, trattate nel progetto difformemente, in base al loro stato e al loro significato, la rampa più recente (XIX sec) rompe lo spazio al piano nobile stravolgendo l’ingresso a questo salone, che originariamente avveniva salendo dalla scala principale e oltrepassando un disimpegno. La scala ottocentesca introduce direttamente all’ambiente che ora risulta liberato dalle superfetazioni dello scorso secolo, mostrandosi come era stato previsto in origine. Questa rottura dello spazio viene marcata nel progetto da un volume che “imprigiona” la rampa e segna l’inizio della sala espositiva, la sala delle architetture. Al centro della sala in un gioco di pieni e vuoti i pannelli, espositivi, distaccati di poco gli uni dagli altri questa volta non a incorniciare delle colonne ma a richiamo delle pitture murali che raffiguranti una loggia alludono ad una lettura per “parti” e scandiscono lo spazio in una “processione” di eventi. A seguito del “gioco” sono presenti in senso ortogonale ai pannelli sopradescritti ulteriori pannellature appese ad una struttura metallica indipendente dalle capriate lignee. Tale struttura assume ad una duplice funzione, funge sia da irrigidimento della struttura (edificio) che da supporto alla pannellatura, ad essa infatti è collegata una fune, che entrerà in tensione, quando il pannello verrà ad appendersi. Infine questa fune passante da due puleggie permetterà al pannello di traslare da un lato all’altro dell’edificio, bloccandosi nella posizione desiderata tramite freno interno, azionato manualmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

New concepts on porosity appraisal in ancient and modern construction materials. The role of Fractal Geometry on porosity characterization and transport phenomena. This work studied the potential of Fractal Geometry to the characterization of porous materials. Besides the descriptive aspects of the pore size distribution, the fractal dimensions have led to the development of rational relations for the prediction of permeability coefficients to fluid and heat transfer. The research considered natural materials used in historical buildings (rock and earth) as well as currently employed materials as hydraulic cement and technologically advanced materials such as silicon carbide or YSZ ceramics. The experimental results of porosity derived from the techniques of mercury intrusion and from the image analysis. Data elaboration was carried out according to established procedures of Fractal Geometry. It was found that certain classes of materials are clearly fractal and respond to simple patterns such as Sierpinski and Menger models. In several cases, however, the fractal character is not recognised because the microstructure of the material is based on different phases at different dimensional scales, and in consequence the “fractal dimensions” calculated from porosimetric data do not come within the standard range (less than 3). Using different type and numbers of fractal units is possible, however, to obtain “virtual” microstructures that have the fraction of voids and pore size distribution equivalent with the experimental ones for almost any material. Thus it was possible to take the expressions for the permeability and the thermal conduction which does not require empirical “constants”, these expressions have also provided values that are generally in agreement with the experimental available data. More problematic has been the fractal discussion of the geometry of the rupture of the material subjected to mechanical stress both external and internal applied. The results achieved on these issues are qualitative and prone to future studies. Keywords: Materials, Microstructure, Porosity, Fractal Geometry, Permeability, Thermal conduction, Mechanical strength.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A far data dalla pubblicazione di un importante ed illustre contributo scientifico (GIORGIANNI, voce Causa (dir. priv.), in Enc. dir., VI, Milano, 1960), e dalla proposta, in esso contenuta, di restituire spazio a fattispecie attributive di diritti giustificate, sotto il profilo causale, dal solo riferimento espresso al rapporto fondamentale che ne costituisca fondamento (le c.d. ), un serrato dibattito ha visto contrapporsi nel tempo fautori di soluzioni possibiliste e sostenitori di una più uniforme descrizione del sistema della circolazione dei diritti e dei rimedi connessi alla mancanza di causa negli atti di disposizione, per quanto avulsi dal contratto cui essi intendano dare compiuta attuazione. La ricerca ha cercato di dimostrare, attraverso una compiuta analisi di ciò che la formula expressio causae davvero significhi, come la presenza o assenza di questa non sia in grado di giustificare un effetto tanto pregnante come la sottrazione della vicenda traslativa alle conseguenze derivanti dalla mancanza di causa, per tale intendendosi il rapporto fondamentale che ne costituisce l’antecedente logico. Allo scrivente è parso che il vero nodo teorico da sciogliere non sia costituito dal concetto di causa che questi Autori assumono a fondamento, quanto piuttosto da una impropria valutazione dell’expressio causae. Tale valutazione conduce ad attribuire al momento ricognitivo, di cui l’enunciazione della causa consiste, una valenza sostanzialmente astratta che non si rinviene nemmeno nelle più estreme ricostruzioni delle fattispecie contemplate all’art. 1988 c.c. e che, in materia di accertamento negoziale, è senza eccezioni rifiutata. Ciò che sembra decisivo, infatti, è che la natura dell'expressio causae, in primo luogo ricognitiva del rapporto cui si dà esecuzione, ben lungi dal rappresentare elemento sufficiente per una autonoma considerazione della causa dell'atto (sussistente) e della causa dell'attribuzione (la cui conservazione è decisa dalle sorti del Rechtsgrund), non pare idonea a suffragare – seppur in via provvisoria, ma con una divergente considerazione dell’avente causa rispetto ai terzi ulteriori acquirenti – una soluzione compiutamente esaustiva del problema della giustificazione dell'effetto, rimandando a modelli – quello della dichiarazione di scienza, innanzitutto – rispetto ai quali una astrazione più che processuale sembra del tutto preclusa, anche per considerazioni storiche che si è cercato di descrivere. Del resto, l’analisi delle ipotesi in cui la ricognizione di un rapporto fondamentale, o la promessa di quanto già dovuto in forza di un rapporto fondamentale (art. 1988 c.c.) mostra come, indipendentemente dalla soluzione che si ritenga pertinente circa la natura di tali figure (meramente dichiarativa del vincolo o addirittura costitutiva), un effetto di astrazione materiale, per quanto relativa, è da escludersi. Trasposta nell’ambito delle prestazioni isolate, questa consapevolezza significa impossibilità di rendere invece materialmente astratta l’attribuzione (efficace immediatamente, e solo soggetta ad essere da un atto di segno contrario dall’avente causa al dante causa, oggetto di una pretesa giudiziale personale). La dichiarazione del rapporto fondamentale, che è intimamente connessa ed insopprimibile in ogni fenomeno di imputazione soggettiva (si deve infatti enunciare ciò cui si dà esecuzione), appare sicuramente sussumibile nello schema della dichiarazione di scienza, nell’effetto in senso lato ricognitivo. Ritenere che essa possa di fatto rendere irrilevante, ai fini della conservazione dell’efficacia della prestazione isolata cui si collega, la reale situazione del rapporto fondamentale (in ipotesi mai esistito, o successivamente venuto meno) significa introdurre surrettiziamente una ipotesi di riconoscimento costitutivo e astratto. Ma tale ultima soluzione non può trovare spazio in alcuna delle opzioni interpretative proposte in materia di riconoscimento e, nemmeno, in quella più estrema che ravvisa nel riconoscimento del debito titolato una forma di accertamento unilaterale. In conclusione, la dottrina delle prestazioni isolate nel fare dell’expressio causae l’elemento capace di decidere in via definitiva del verificarsi dell’effetto traslativo – effetto che va, giova ripeterlo, solo rimosso con un atto uguale e contrario assolutamente diverso da quanto nel nostro sistema appare essere, oggi, la ripetizione di indebito – determina una supervalutazione del momento ricognitivo, insito in ogni fenomeno di imputazione/esecuzione. Detto esito costituisce non tanto la recezione del Trennungsprinzip vigente in Germania, ammissibile nella misura in cui si reputi dispositiva la norma di cui all’art. 1376 c.c., quanto piuttosto la silenziosa riproposizione del modello della Schuldanerkenntnis (§781 B.G.B.), la cui totale estraneità rispetto alla tradizione giuridica delle codificazioni franco-italiane (Code civil, c.c. del 1865, c.c. del 1942) si crede di avere sufficientemente dimostrato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oggetto della ricerca sono l’esame e la valutazione dei limiti posti all’autonomia privata dal divieto di abuso della posizione dominante, come sancito, in materia di tutela della concorrenza, dall’art. 3 della legge 10 ottobre 1990, n. 287, a sua volta modellato sull’art. 82 del Trattato CE. Preliminarmente, si è ritenuto opportuno svolgere la ricognizione degli interessi tutelati dal diritto della concorrenza, onde individuare la cerchia dei soggetti legittimati ad avvalersi dell’apparato di rimedi civilistici – invero scarno e necessitante di integrazione in via interpretativa – contemplato dall’art. 33 della legge n. 287/1990. È così emerso come l’odierno diritto della concorrenza, basato su un modello di workable competition, non possa ritenersi sorretto da ragioni corporative di tutela dei soli imprenditori concorrenti, investendo direttamente – e rivestendo di rilevanza giuridica – le situazioni soggettive di coloro che operano sul mercato, indipendentemente da qualificazioni formali. In tal senso, sono stati esaminati i caratteri fondamentali dell’istituto dell’abuso di posizione dominante, come delineatisi nella prassi applicativa non solo degli organi nazionali, ma anche di quelli comunitari. Ed invero, un aspetto importante che caratterizza la disciplina italiana dell’abuso di posizione dominante e della concorrenza in generale, distinguendola dalle normative di altri sistemi giuridici prossimi al nostro, è costituito dal vincolo di dipendenza dal diritto comunitario, sancito dall’art. 1, quarto comma, della legge n. 287/1990, idoneo a determinare peculiari riflessi anche sul piano dell’applicazione civilistica dell’istituto. La ricerca si è quindi spostata sulla figura generale del divieto di abuso del diritto, onde vagliarne i possibili rapporti con l’istituto in esame. A tal proposito, si è tentato di individuare, per quanto possibile, i tratti essenziali della figura dell’abuso del diritto relativamente all’esercizio dell’autonomia privata in ambito negoziale, con particolare riferimento all’evoluzione del pensiero della dottrina e ai più recenti orientamenti giurisprudenziali sul tema, che hanno valorizzato il ruolo della buona fede intesa in senso oggettivo. Particolarmente interessante è parsa la possibilità di estendere i confini della figura dell’abuso del diritto sì da ricomprendere anche l’esercizio di prerogative individuali diverse dai diritti soggettivi. Da tale estensione potrebbero infatti discendere interessanti ripercussioni per la tutela dei soggetti deboli nel contesto dei rapporti d’impresa, intendendosi per tali tanto i rapporti tra imprenditori in posizione paritaria o asimmetrica, quanto i rapporti tra imprenditori e consumatori. È stato inoltre preso in considerazione l’aspetto dei rimedi avverso le condotte abusive, alla luce dei moderni contributi sull’eccezione di dolo generale, sulla tutela risarcitoria e sull’invalidità negoziale, con i quali è opportuno confrontarsi qualora si intenda cercare di colmare – come sembra opportuno – i vuoti di disciplina della tutela civilistica avverso l’abuso di posizione dominante. Stante l’evidente contiguità con la figura in esame, si è poi provveduto ad esaminare, per quanto sinteticamente, il divieto di abuso di dipendenza economica, il quale si delinea come figura ibrida, a metà strada tra il diritto dei contratti e quello della concorrenza. Tale fattispecie, pur inserita in una legge volta a disciplinare il settore della subfornitura industriale (art. 9, legge 18 giugno 1998, n. 192), ha suscitato un vasto interessamento della dottrina. Si sono infatti levate diverse voci favorevoli a riconoscere la portata applicativa generale del divieto, quale principio di giustizia contrattuale valevole per tutti i rapporti tra imprenditori. Nel tentativo di verificare tale assunto, si è cercato di individuare la ratio sottesa all’art. 9 della legge n. 192/1998, anche in considerazione dei suoi rapporti con il divieto di abuso di posizione dominante. Su tale aspetto è d’altronde appositamente intervenuto il legislatore con la legge 5 marzo 2001, n. 57, riconoscendo la competenza dell’Autorità garante per la concorrenza ed il mercato a provvedere, anche d’ufficio, sugli abusi di dipendenza economica con rilevanza concorrenziale. Si possono così prospettare due fattispecie normative di abusi di dipendenza economica, quella con effetti circoscritti al singolo rapporto interimprenditoriale, la cui disciplina è rimessa al diritto civile, e quella con effetti negativi per il mercato, soggetta anche – ma non solo – alle regole del diritto antitrust; tracciare una netta linea di demarcazione tra i reciproci ambiti non appare comunque agevole. Sono stati inoltre dedicati brevi cenni ai rimedi avverso le condotte di abuso di dipendenza economica, i quali involgono problematiche non dissimili a quelle che si delineano per il divieto di abuso di posizione dominante. Poste tali basi, la ricerca è proseguita con la ricognizione dei rimedi civilistici esperibili contro gli abusi di posizione dominante. Anzitutto, è stato preso in considerazione il rimedio del risarcimento dei danni, partendo dall’individuazione della fonte della responsabilità dell’abutente e vagliando criticamente le diverse ipotesi proposte in dottrina, anche con riferimento alle recenti elaborazioni in tema di obblighi di protezione. È stata altresì vagliata l’ammissibilità di una visione unitaria degli illeciti in questione, quali fattispecie plurioffensive e indipendenti dalla qualifica formale del soggetto leso, sia esso imprenditore concorrente, distributore o intermediario – o meglio, in generale, imprenditore complementare – oppure consumatore. L’individuazione della disciplina applicabile alle azioni risarcitorie sembra comunque dipendere in ampia misura dalla risposta al quesito preliminare sulla natura – extracontrattuale, precontrattuale ovvero contrattuale – della responsabilità conseguente alla violazione del divieto. Pur non sembrando prospettabili soluzioni di carattere universale, sono apparsi meritevoli di approfondimento i seguenti profili: quanto all’individuazione dei soggetti legittimati, il problema della traslazione del danno, o passing-on; quanto al nesso causale, il criterio da utilizzare per il relativo accertamento, l’ammissibilità di prove presuntive e l’efficacia dei provvedimenti amministrativi sanzionatori; quanto all’elemento soggettivo, la possibilità di applicare analogicamente l’art. 2600 c.c. e gli aspetti collegati alla colpa per inosservanza di norme di condotta; quanto ai danni risarcibili, i criteri di accertamento e di prova del pregiudizio; infine, quanto al termine di prescrizione, la possibilità di qualificare il danno da illecito antitrust quale danno “lungolatente”, con le relative conseguenze sull’individuazione del dies a quo di decorrenza del termine prescrizionale. In secondo luogo, è stata esaminata la questione della sorte dei contratti posti in essere in violazione del divieto di abuso di posizione dominante. In particolare, ci si è interrogati sulla possibilità di configurare – in assenza di indicazioni normative – la nullità “virtuale” di detti contratti, anche a fronte della recente conferma giunta dalla Suprema Corte circa la distinzione tra regole di comportamento e regole di validità del contratto. È stata inoltre esaminata – e valutata in senso negativo – la possibilità di qualificare la nullità in parola quale nullità “di protezione”, con una ricognizione, per quanto sintetica, dei principali aspetti attinenti alla legittimazione ad agire, alla rilevabilità d’ufficio e all’estensione dell’invalidità. Sono poi state dedicate alcune considerazioni alla nota questione della sorte dei contratti posti “a valle” di condotte abusive, per i quali non sembra agevole configurare declaratorie di nullità, mentre appare prospettabile – e, anzi, preferibile – il ricorso alla tutela risarcitoria. Da ultimo, non si è trascurata la valutazione dell’esperibilità, avverso le condotte di abuso di posizione dominante, di azioni diverse da quelle di nullità e risarcimento, le sole espressamente contemplate dall’art. 33, secondo comma, della legge n. 287/1990. Segnatamente, l’attenzione si è concentrata sulla possibilità di imporre a carico dell’impresa in posizione dominante un obbligo a contrarre a condizioni eque e non discriminatorie. L’importanza del tema è attestata non solo dalla discordanza delle pronunce giurisprudenziali, peraltro numericamente scarse, ma anche dal vasto dibattito dottrinale da tempo sviluppatosi, che investe tuttora taluni aspetti salienti del diritto delle obbligazioni e della tutela apprestata dall’ordinamento alla libertà di iniziativa economica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di dottorato di ricerca ha come oggetto la nozione di fatto urbano elaborata e presentata da Aldo Rossi nel libro L’architettura della città edito nel 1966. Ne L’architettura della città sono molteplici le definizioni e le forme con cui è enunciata la nozione di fatto urbano. Nel corso della tesi si è indagato come la costruzione nel tempo di questo concetto è stata preceduta da diversi studi giovanili intrapresi dal 1953, poi riorganizzati e sintetizzati a partire dal 1963 in un quaderno manoscritto dal titolo “Manuale di urbanistica”, in diversi appunti e in due quaderni manoscritti. Il lavoro di ricerca ha ricostruito la formulazione della nozione di fatto urbano attraverso gli scritti di Rossi. In questa direzione la rilevazione della partecipazione di Rossi a dibattiti, seminari, riviste, corsi universitari o ricerche accademiche è apparsa di fondamentale importanza, per comprendere la complessità di un lavoro non riconducibile a dei concetti disciplinari, ma alla formazione di una teoria trasmissibile. Il tentativo di comprendere e spiegare la nozione di fatto urbano ha condotto ad esaminare l’accezione con cui Rossi compone L’architettura della città, che egli stesso assimila ad un trattato. L’analisi ha identificato come la composizione del libro non è direttamente riferibile ad un uso classico della stesura editoriale del trattato, la quale ha tra i riferimenti più noti nel passato la promozione di una pratica corretta come nel caso vitruviano o un’impalcatura instauratrice di una nuova categoria come nel caso dell’Alberti. La mancanza di un sistema globale e prescrittivo a differenza dei due libri fondativi e il rimando non immediato alla stesura di un trattato classico è evidente ne L’architettura della città. Tuttavia la possibilità di condurre la ricerca su una serie di documenti inediti ha permesso di rilevare come negli scritti a partire dal 1953, sia maturata una trattazione delle questioni centrali alla nozione di fatto urbano ricca di intuizioni, che aspirano ad un’autonomia, sintetizzate, seppure in modo non sistematico, nella stesura del celebre libro. Si è così cercato di mettere in luce la precisazione nel tempo della nozione di fatto urbano e della sua elaborazione nei molteplici scritti antecedenti la pubblicazione de L’architettura della città, precisando come Rossi, pur costruendo su basi teoriche la nozione di fatto urbano, ne indichi una visione progressiva, ossia un uso operativo sulla città. La ricerca si è proposta come obiettivo di comprendere le radici culturali della nozione di fatto urbano sia tramite un’esplorazione degli interessi di Rossi nel suo percorso formativo sia rispetto alla definizione della struttura materiale del fatto urbano che Rossi individua nelle permanenze e che alimenta nella sua definizione con differenti apporti derivanti da altre discipline. Compito di questa ricerca è stato rileggere criticamente il percorso formativo compiuto da Rossi, a partire dal 1953, sottolinearne gli ambiti innovativi e precisarne i limiti descrittivi che non vedranno mai la determinazione di una nozione esatta, ma piuttosto la strutturazione di una sintesi complessa e ricca di riferimenti ad altri studi. In sintesi la tesi si compone di tre parti: 1. la prima parte, dal titolo “La teoria dei fatti urbani ne L’architettura della città”, analizza il concetto di fatto urbano inserendolo all’interno del più generale contesto teorico contenuto nel libro L’architettura della città. Questo avviene tramite la scomposizione del libro, la concatenazione delle sue argomentazioni e la molteplicità delle fonti esplicitamente citate da Rossi. In questo ambito si precisa la struttura del libro attraverso la rilettura dei riferimenti serviti a Rossi per comporre il suo progetto teorico. Inoltre si ripercorre la sua vita attraverso le varie edizioni, le ristampe, le introduzioni e le illustrazioni. Infine si analizza il ruolo del concetto di fatto urbano nel libro rilevando come sia posto in un rapporto paritetico con il titolo del libro, conseguendone un’accezione di «fatto da osservare» assimilabile all’uso proposto dalla geografia urbana francese dei primi del Novecento. 2. la seconda parte, dal titolo “La formazione della nozione di fatto urbano 1953-66”, è dedicata alla presentazione dell’elaborazione teorica negli scritti di Rossi prima de L’architettura della città, ossia dal 1953 al 1966. Questa parte cerca di descrivere le radici culturali di Rossi, le sue collaborazioni e i suoi interessi ripercorrendo la progressiva definizione della concezione di città nel tempo. Si è analizzato il percorso maturato da Rossi e i documenti scritti fin dagli anni in cui era studente alla Facoltà di Architettura Politecnico di Milano. Emerge un quadro complesso in cui i primi saggi, gli articoli e gli appunti testimoniano una ricerca intellettuale tesa alla costruzione di un sapere sullo sfondo del realismo degli anni Cinquanta. Rossi matura infatti un impegno culturale che lo porta dopo la laurea ad affrontare discorsi più generali sulla città. In particolare la sua importante collaborazione con la rivista Casabella-continuità, con il suo direttore Ernesto Nathan Rogers e tutto il gruppo redazionale segnano il periodo successivo in cui compare l’interesse per la letteratura urbanistica, l’arte, la sociologia, la geografia, l’economia e la filosofia. Seguono poi dal 1963 gli anni di lavoro insieme al gruppo diretto da Carlo Aymonino all’Istituto Universitario di Architettura di Venezia, e in particolare le ricerche sulla tipologia edilizia e la morfologia urbana, che portano Rossi a compiere una sintesi analitica per la fondazione di una teoria della città. Dall’indagine si rileva infatti come gli scritti antecedenti L’architettura della città sviluppano lo studio dei fatti urbani fino ad andare a costituire il nucleo teorico di diversi capitoli del libro. Si racconta così la genesi del libro, la cui scrittura si è svolta nell’arco di due anni, e le aspirazioni che hanno portato quello che era stato concepito come un “manuale d’urbanistica” a divenire quello che Rossi definirà “l’abbozzo di un trattato” per la formulazione di una scienza urbana. 3. la terza parte, dal titolo “La struttura materiale dei fatti urbani: la teoria della permanenza”, indaga monograficamente lo studio della città come un fatto materiale, un manufatto, la cui costruzione è avvenuta nel tempo e del tempo mantiene le tracce. Sul tema della teoria della permanenza è stato importante impostare un confronto con il dibattito vivo negli anni della ricostruzione dopo la guerra intorno ai temi delle preesistenze ambientali nella ricostruzione negli ambienti storici. Sono emersi fin da subito importanti la relazione con Ernesto Nathan Rogers, le discussioni sulle pagine di Casabella-Continuità, la partecipazione ad alcuni dibatti e ricerche. Si è inoltre Rilevato l’uso di diversi termini mutuati dalle tesi filosofiche di alcune personalità come Antonio Banfi e Enzo Paci, poi elaborati dal nucleo redazionale di Casabella-Continuità, di cui faceva parte anche Rossi. Sono così emersi alcuni spostamenti di senso e la formulazione di un vocabolario di termini all’interno della complessa vicenda della cultura architettonica degli anni Cinquanta e Sessanta. 1. Si è poi affrontato questo tema analizzando le forme con cui Rossi presenta la definizione della teoria della permanenza e i contributi desunti da alcuni autori per la costruzione scientifica di una teoria dell’architettura, il cui fine è quello di essere trasmissibile e di offrire strumenti di indagine concreti. Questa ricerca ha permesso di ipotizzare come il lavoro dei geografi francesi della prima metà del XX secolo, e in particolare il contributo più rilevante di Marcel Poëte e di Pierre Lavedan, costituiscono le fonti principali e il campo d’indagine maggiormente esplorato da Rossi per definire la teoria della permanenza e i monumenti. Le permanenze non sono dunque presentate ne L’architettura della città come il “tutto”, ma emergono da un metodo che sceglie di isolare i fatti urbani permanenti, consentendo così di compiere un’ipotesi su “ciò che resta” dopo le trasformazioni continue che operano nella città. Le fonti su cui ho lavorato sono state quelle annunciate da Rossi ne L’architettura della città, e più precisamente i testi nelle edizioni da lui consultate. Anche questo lavoro ha permesso un confronto dei testi che ha fatto emergere ne L’architettura della città l’uso di termini mutuati da linguaggi appartenenti ad altre discipline e quale sia l’uso di concetti estrapolati nella loro interezza. Presupposti metodologici Della formulazione della nozione di fatto urbano si sono indagate l’originalità dell’espressione, le connessioni presunte o contenute negli studi di Rossi sulla città attraverso la raccolta di fonti dirette e indirette che sono andate a formare un notevole corpus di scritti. Le fonti dirette più rilevanti sono state trovare nelle collezioni speciali del Getty Research Institute di Los Angeles in cui sono conservati gli Aldo Rossi Papers, questo archivio comprende materiali inediti dal 1954 al 1988. La natura dei materiali si presenta sotto forma di manoscritti, dattiloscritti, quaderni, documenti ciclostilati, appunti sparsi e una notevole quantità di corrispondenza. Negli Aldo Rossi Papers si trovano anche 32 dei 47 Quaderni Azzurri, le bozze de L’architettura della città e dell’ Autobiografia Scientifica. Per quanto riguarda in particolare L’architettura della città negli Aldo Rossi Papers sono conservati: un quaderno con il titolo “Manuale d’urbanistica, giugno 1963”, chiara prima bozza del libro, degli “Appunti per libro urbanistica estate/inverno 1963”, un quaderno con la copertina rossa datato 20 settembre 1964-8 agosto 1965 e un quaderno con la copertina blu datato 30 agosto 1965-15 dicembre 1965. La possibilità di accedere a questo archivio ha permesso di incrementare la bibliografia relativa agli studi giovanili consentendo di rileggere il percorso culturale in cui Rossi si è formato. E’ così apparsa fondamentale la rivalutazione di alcune questioni relative al realismo socialista che hanno portato a formare un più preciso quadro dei primi scritti di Rossi sullo sfondo di un complesso scenario intellettuale. A questi testi si è affiancata la raccolta delle ricerche universitarie, degli articoli pubblicati su riviste specializzate e degli interventi a dibattiti e seminari. A proposito de L’architettura della città si è raccolta un’ampia letteratura critica riferita sia al testo in specifico che ad una sua collocazione nella storia dell’architettura, mettendo in discussione alcune osservazioni che pongono L’architettura della città come un libro risolutivo e definitivo. Per quanto riguarda il capitolo sulla teoria della permanenza l’analisi è stata svolta a partire dai testi che Rossi stesso indicava ne L’architettura della città rivelando i diversi apporti della letteratura urbanistica francese, e permettendo alla ricerca di precisare le relazioni con alcuni scritti centrali e al contempo colti da Rossi come opportunità per intraprendere l’elaborazione dell’idea di tipo. Per quest’ultima parte si può precisare come Rossi formuli la sua idea di tipo in un contesto culturale dove l’interesse per questo tema era fondamentale. Dunque le fonti che hanno assunto maggior rilievo in quest’ultima fase emergono da un ricco panorama in cui Rossi compie diverse ricerche sia con il gruppo redazionale di Casabella-continuità, sia all’interno della scuola veneziana negli anni Sessanta, ma anche negli studi per l’ILSES e per l’Istituto Nazionale d’Urbanistica. RESEARCH ON THE NOTION OF URBAN ARTIFACT IN THE ARCHITECTURE OF THE CITY BY ALDO ROSSI. Doctoral candidate: Letizia Biondi Tutor: Valter Balducci The present doctoral dissertation deals with the notion of urban artifact that was formulated and presented by Aldo Rossi in his book The Architecture of the City, published in 1966. In The Architecture of the City, the notion of urban artifact is enunciated through a wide range of definitions and forms. In this thesis, a research was done on how the construction of this concept over time was preceded by various studies started in 1953 during the author’s youth, then re-organized and synthesized since 1963 in a manuscript titled “Manual of urban planning” and in two more manuscripts later on. The work of research re-constructed the formulation of the notion of urban artifact through Rossi’s writings. In this sense, the examination of Rossi’s participation in debates, seminars, reviews, university courses or academic researches was of fundamental importance to understand the complexity of a work which is not to be attributed to disciplinary concepts, but to the formulation of a communicable theory. The effort to understand and to explain the notion of urban artifact led to an examination of the meaning used by Rossi to compose The Architecture of the City, which he defines as similar to a treatise. Through this analysis, it emerged that the composition of the book is not directly ascribable to the classical use of editorial writing of a treatise, whose most famous references in the past are the promotion of a correct practice as in the case of Vitruvio’s treatise, or the use of a structure that introduces a new category as in the Alberti case. Contrary to the two founding books, the lack of a global and prescriptive system and the not immediate reference to the writing of a classical treatise are evident in The Architecture of the City. However, the possibility of researching on some unpublished documents allowed to discover that in the writings starting from 1953 the analysis of the questions that are at the core of the notion of urban artifact is rich of intuitions, that aim to autonomy and that would be synthesized, even though not in a systematic way, in his famous book. The attempt was that of highlighting the specification over time of the notion of urban artifact and its elaboration in the various writings preceding the publication of The Architecture of the City. It was also specified that, despite building on theoretical grounds, Rossi indicates a progressive version of the notion of urban artifact, that is a performing use in the city. The present research aims to understand the cultural roots of the notion of urban artifact in two main directions: analyzing, firstly, Rossi’s interests along his formation path and, secondly, the definition of material structure of an urban artifact identified by Rossi in the permanences and enriched by various contributions from other disciplines. The purpose of the present research is to revise the formation path made by Rossi in a critical way, starting by 1953, underlining its innovative aspects and identifying its describing limits, which will never lead to the formulation of an exact notion, but rather to the elaboration of a complex synthesis, enriched by references to other studies. In brief, the thesis is composed of three parts: 1. The first part, titled “The Theory of urban artifacts in The Architecture of the City”, analyzes the concept of urban artifact in the more general theoretical context of the book The Architecture of the City. Such analysis is done by “disassembling” the book, and by linking together the argumentations and the multiplicity of the sources which are explicitly quoted by Rossi. In this context, the book’s structure is defined more precisely through the revision of the references used by Rossi to compose his theoretical project. Moreover, the author’s life is traced back through the various editions, re-printings, introductions and illustrations. Finally, it is specified which role the concept of urban artifact has in the book, pointing out that it is placed in an equal relation with the book’s title; by so doing, the concept of urban artifact gets the new meaning of “fact to be observed”, similar to the use that was suggested by the French urban geography at the beginning of the 20th century. 2. The second part, titled “The formation of the notion of urban artifact 1953-66”, introduces the theoretical elaboration in Rossi’s writings before The Architecture of the City, that is from 1953 to 1966. This part tries to describe Rossi’s cultural roots, his collaborations and his interests, tracing back the progressive definition of his conception of city over time. The analysis focuses on the path followed by Rossi and on the documents that he wrote since the years as a student at the Department of Architecture at the Politecnico in Milan. This leads to a complex scenario of first essays, articles and notes that bear witness to the intellectual research aiming to the construction of a knowledge on the background of the Realism of the 1950s. Rossi develops, in fact, a cultural engagement that leads him after his studies to deal with more general issues about the city. In particular, his important collaboration with the architecture magazine “Casabella-continuità”, with the director Ernesto Nathan Rogers and with the whole redaction staff mark the following period when he starts getting interested in city planning literature, art, sociology, geography, economics and philosophy. Since 1963, Rossi has worked with the group directed by Carlo Aymonino at the “Istituto Universitario di Architettura” (University Institute of Architecture) in Venice, especially researching on building typologies and urban morphology. During these years, Rossi elaborates an analytical synthesis for the formulation of a theory about the city. From the present research, it is evident that the writings preceding The Architecture of the City develop the studies on urban artifacts, which will become theoretical core of different chapters of the book. In conclusion, the genesis of the book is described; written in two years, what was conceived to be an “urban planning manual” became a “treatise draft” for the formulation of an urban science, as Rossi defines it. 3. The third part is titled “The material structure of urban artifacts: the theory of permanence”. This research is made on the study of the city as a material fact, a manufacture, whose construction was made over time, bearing the traces of time. As far as the topic of permanence is concerned, it was also important to draw a comparison with the debate about the issues of environmental pre-existence of re-construction in historical areas, which was very lively during the years of the Reconstruction. Right from the beginning, of fundamental importance were the relationship with Ernesto Nathan Rogers, the discussions on the pages of Casabella-Continuità and the participation to some debates and researches. It is to note that various terms were taken by the philosophical thesis by some personalities such as Antonio Banfi and Enzo Paci, and then re-elaborated by the redaction staff at Casabella-Continuità, which Rossi took part in as well. Through this analysis, it emerged that there were some shifts in meaning and the formulation of a vocabulary of terms within the complex area of the architectonic culture in the 1950s and 1960s. Then, I examined the shapes in which Rossi introduces the definition of the theory of permanence and the references by some authors for the scientific construction of an architecture theory whose aim is being communicable and offering concrete research tools. Such analysis allowed making a hypothesis about the significance for Rossi of the French geographers of the first half of the 20th century: in particular, the work by Marcel Poëte and by Pierre Lavedan is the main source and the research area which Rossi mostly explored to define the theory of permanence and monuments. Therefore, in The Architecture of the City, permanencies are not presented as the “whole”, but they emerge from a method which isolates permanent urban artifacts, in this way allowing making a hypothesis on “what remains” after the continuous transformations made in the city. The sources examined were quoted by Rossi in The Architecture of the City; in particular I analyzed them in the same edition which Rossi referred to. Through such an analysis, it was possible to make a comparison of the texts with one another, which let emerge the use of terms taken by languages belonging to other disciplines in The Architecture of the City and which the use of wholly extrapolated concepts is. Methodological premises As far as the formulation of the notion of urban artifact is concerned, the analysis focuses on the originality of the expression, the connections that are assumed or contained in Rossi’s writings about the city, by collecting direct and indirect sources which formed a significant corpus of writings. The most relevant direct sources were found in the special collections of the Getty Research Institute in Los Angeles, where the “Aldo Rossi Papers” are conserved. This archive contains unpublished material from 1954 to 1988, such as manuscripts, typescripts, notebooks, cyclostyled documents, scraps and notes, and several letters. In the Aldo Rossi Papers there are also 32 out of the 47 Light Blue Notebooks (Quaderni Azzurri), the rough drafts of The Architecture of the City and of the “A Scientific Autobiography”. As regards The Architecture of the City in particular, the Aldo Rossi Papers preserve: a notebook by the title of “Urban planning manual, June, 1963”, which is an explicit first draft of the book; “Notes for urban planning book summer/winter 1963”; a notebook with a red cover dated September 20th, 1964 – August 8th, 1965; and a notebook with a blue cover dated August 30th, 1965 – December 15th, 1965. The possibility of accessing this archive allowed to increase the bibliography related to the youth studies, enabling a revision of the cultural path followed by Rossi’s education. To that end, it was fundamental to re-evaluate some issues linked to the socialist realism which led to a more precise picture of the first writings by Rossi against the background of the intellectual scenario where he formed. In addition to these texts, the collection of university researches, the articles published on specialized reviews and the speeches at debates and seminars were also examined. About The Architecture of the City, a wide-ranging critical literature was collected, related both to the text specifics and to its collocation in the story of architecture, questioning some observations which define The Architecture of the City as a conclusive and definite book. As far as the chapter on the permanence theory is concerned, the analysis started by the texts that Rossi indicated in The Architecture of the City, revealing the different contributions from the French literature on urban planning. This allowed to the present research a more specific definition of the connections to some central writings which, at the same time, were seen by Rossi as an opportunity to start up the elaboration of the idea of type. For this last part, it can be specified that Rossi formulates his idea of type in a cultural context where the interest in this topic was fundamental. Therefore, the sources which played a central role in this final phase emerge from an extensive panorama in which Rossi researched not only with the redaction staff at Casablanca-continuità and within the School of Venice in the 1960s, but also in his studies for the ILSES (Institute of the Region Lombardia for Economics and Social Studies) and for the National Institute of Urban Planning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oggetto della ricerca è il tema dello spazio delle centrali idroelettriche costruite nella prima metà del Novecento dagli architetti Giovanni Muzio e Piero Portaluppi. L’individuazione del tema sorge dalla volontà di indagare quali siano stati gli sviluppi dal punto di vista architettonico all’interno di un genere così specifico durante un periodo di tempo in cui gli stili architettonici e le tendenze hanno subito stravolgimenti ed evoluzioni che ancora oggi trovano una difficile connotazione e definizione precisa. L’analisi dell’architettura delle centrali idroelettriche, effettuata ripercorrendo le principali vicende del settore idroelettrico dalla fine del secolo scorso al secondo dopoguerra, oltre a considerare il rapporto con il contesto territoriale e culturale del nostro Paese vuole prendere in considerazione anche il particolare rapporto che in più casi si è venuto a creare tra committenti e progettisti. Compito della tesi è rileggere un settore poco indagato finora e capire se vi sia stata effettivamente una evoluzione architettonica dal punto di vista tipologico o se la centrale sia stata sempre affrontata come semplice esercizio di “vestizione” di un involucro precostituito da precise esigenze tecniche. La ricerca infatti si pone come obiettivo lo studio delle centrali non solo dal punto di vista tipologico e spaziale dei suoi principali elementi, ma si pone come obiettivo anche lo studio della loro distribuzione nel sito in cui sono sorte, distribuzione che spesso ha portato alla formazione di una sorta di vera e propria “città elettrica”, in cui la composizione dei vari elementi segue una logica compositiva ben precisa. Dal punto di vista del contributo originale la ricerca vuole proporre una serie di riflessioni ed elaborati inerenti alcune centrali non ancora indagate. Nel caso specifico di Portaluppi l’apporto originale consiste nell’aver portato alla luce notizie inerenti centrali che sono sempre state poste in secondo piano rispetto le ben più note e studiate centrali della Val d’Ossola. Nel caso invece di Muzio il contributo consiste in una analisi approfondita e in una comparazione di documenti che di solito sono sempre stati pubblicati come semplice apparato iconografico, ma che messi a confronto danno una lettura di quelle che sono state le fasi e le elaborazioni progettuali apportate dall’autore. Il tema della ricerca è stato affrontato poi attraverso una lettura delle fonti dirette relative agli scritti degli autori, con una contemporanea lettura di testi, articoli e interventi tratti dalle riviste appartenenti al periodo in esame per comprendere al meglio il panorama culturale e architettonico che hanno fatto da scenario alle esperienze di entrambe le figure oggetto di studio. Infine la ricerca si è concentrata sull’analisi di alcune opere in particolare - due centrali idroelettriche per ciascun autore oggetto della tesi - scelte perché considerate rappresentative sia per impianto spaziale e tipologico, sia per le scelte compositive e stilistiche adottate. La lettura dei manufatti architettonici scelti è stata condotta con l’analisi di copie di elaborati grafici originali, foto d’epoca e altri documenti reperiti grazie ad una ricerca condotta in vari archivi. Le centrali scelte nell’ambito delle esperienze maturate da Muzio e Portaluppi sono state individuate per rappresentare il quadro relativo allo sviluppo e alla ricerca di un nuovo linguaggio formale da adottare nell’ambito dell’architettura di questi manufatti. Per entrambi i protagonisti oggetto della ricerca sono state individuate due centrali in grado di dare una visione il più possibile completa dell’evoluzione della tematica delle centrali idroelettriche all’interno della loro esperienza, prendendo in considerazione soprattutto gli aspetti legati all’evoluzione del loro linguaggio compositivo e stilistico. L’individuazione delle centrali da analizzare è stata dettata prendendo in considerazione alcuni fattori come il tipo di impianto, le relazioni e confronto con il contesto geografico e naturale e le soluzioni adottate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fino ad un recente passato, le macchine elettriche di tipo trifase costituivano l’unica soluzione in ambito industriale per la realizzazione di azionamenti di grande potenza. Da quando i motori sono gestiti da convertitori elettronici di potenza si è ottenuto un notevole passo in avanti verso l’innovazione tecnologica. Infatti, negli ultimi decenni, le tecnologie sempre più all’avanguardia e l’aumento dell’utilizzo dell’elettronica, sia in campo civile quanto in quello industriale, hanno contribuito a una riduzione dei costi dei relativi componenti; questa situazione ha permesso di utilizzare tecnologie elaborate che in passato avevano costi elevati e quindi risultavano di scarso interesse commerciale. Nel campo delle macchine elettriche tutto questo ha permesso non solo la realizzazione di azionamenti alimentati e controllati tramite inverter, in grado di garantire prestazioni nettamente migliori di quelle ottenute con i precedenti sistemi di controllo, ma anche l’avvento di una nuova tipologia di macchine con un numero di fasi diverso da quello tradizionale trifase, usualmente impiegato nella generazione e distribuzione dell’energia elettrica. Questo fatto ha destato crescente interesse per lo studio di macchine elettriche multifase. Il campo di studio delle macchine multifase è un settore relativamente nuovo ed in grande fermento, ma è già possibile affermare che le suddette macchine sono in grado di fornire prestazioni migliori di quelle trifase. Un motore con un numero di fasi maggiore di tre presenta numerosi vantaggi: 1. la possibilità di poter dividere la potenza su più fasi, riducendo la taglia in corrente degli interruttori statici dell’inverter; 2. la maggiore affidabilità in caso di guasto di una fase; 3. la possibilità di sfruttare le armoniche di campo magnetico al traferro per ottenere migliori prestazioni in termini di coppia elettromagnetica sviluppata (riduzione dell’ampiezza e incremento della frequenza della pulsazione di coppia); 4. l’opportunità di creare azionamenti elettrici multi-motore, collegando più macchine in serie e comandandole con un unico convertitore di potenza; 5. Maggiori e più efficaci possibilità di utilizzo nelle applicazioni Sensorless. Il presente lavoro di tesi, ha come oggetto lo studio e l’implementazione di una innovativa tecnica di controllo di tipo “sensorless”, da applicare in azionamenti ad orientamento di campo per macchine asincrone eptafase. Nel primo capitolo vengono illustrate le caratteristiche e le equazioni rappresentanti il modello della macchina asincrona eptafase. Nel secondo capitolo si mostrano il banco di prova e le caratteristiche dei vari componenti. Nel terzo capitolo sono rappresentate le tecniche di modulazione applicabili per macchine multifase. Nel quarto capitolo vengono illustrati il modello del sistema implementato in ambiente Simulink ed i risultati delle simulazioni eseguite. Nel quinto capitolo viene presentato il Code Composer Studio, il programma necessario al funzionamento del DSP. Nel sesto capitolo, sono presentati e commentati i risultati delle prove sperimentali.