351 resultados para Lunghezza della cerniera plastica, pushover, rotazione ultima, colonne in c.a.
Resumo:
I RAEE (Rifiuti da Apparecchiature Elettriche ed Elettroniche) costituiscono un problema prioritario a livello europeo per quanto riguarda la loro raccolta, stoccaggio, trattamento, recupero e smaltimento, essenzialmente per i seguenti tre motivi: Il primo riguarda le sostanze pericolose contenute nei RAEE. Tali sostanze, nel caso non siano trattate in modo opportuno, possono provocare danni alla salute dell’uomo e all’ambiente. Il secondo è relativo alla vertiginosa crescita relativa al volume di RAEE prodotti annualmente. La crescita è dovuta alla continua e inesorabile commercializzazione di prodotti elettronici nuovi (è sufficiente pensare alle televisioni, ai cellulari, ai computer, …) e con caratteristiche performanti sempre migliori oltre all’accorciamento del ciclo di vita di queste apparecchiature elettriche ed elettroniche (che sempre più spesso vengono sostituiti non a causa del loro malfunzionamento, ma per il limitato livello di performance garantito). Il terzo (ed ultimo) motivo è legato all’ambito economico in quanto, un corretto trattamento dei RAEE, può portare al recupero di materie prime secondarie (alluminio, ferro, acciaio, plastiche, …) da utilizzare per la realizzazione di nuove apparecchiature. Queste materie prime secondarie possono anche essere vendute generando profitti considerevoli in ragione del valore di mercato di esse che risulta essere in costante crescita. Questo meccanismo ha portato a sviluppare un vasto quadro normativo che regolamenta tutto l’ambito dei RAEE dalla raccolta fino al recupero di materiali o al loro smaltimento in discarica. È importante inoltre sottolineare come lo smaltimento in discarica sia da considerarsi come una sorta di ‘ultima spiaggia’, in quanto è una pratica piuttosto inquinante. Per soddisfare le richieste della direttiva l’obiettivo dev’essere quello di commercializzare prodotti che garantiscano un minor impatto ambientale concentrandosi sul processo produttivo, sull’utilizzo di materiali ‘environmentally friendly’ e sulla gestione consona del fine vita. La Direttiva a livello europeo (emanata nel 2002) ha imposto ai Paesi la raccolta differenziata dei RAEE e ha definito anche un obiettivo di raccolta per tutti i suoi Stati Membri, ovvero 4 kg di RAEE raccolti annualmente da ogni abitante. Come riportato di seguito diversi paesi hanno raggiunto l’obiettivo sopra menzionato (l’Italia vi è riuscita nel 2010), ma esistono anche casi di paesi che devono necessariamente migliorare il proprio sistema di raccolta e gestione dei RAEE. Più precisamente in Italia la gestione dei RAEE è regolamentata dal Decreto Legislativo 151/2005 discusso approfonditamente in seguito ed entrato in funzione a partire dal 1° Gennaio 2008. Il sistema italiano è basato sulla ‘multi consortilità’, ovvero esistono diversi Sistemi Collettivi che sono responsabili della gestione dei RAEE per conto dei produttori che aderiscono ad essi. Un altro punto chiave è la responsabilità dei produttori, che si devono impegnare a realizzare prodotti durevoli e che possano essere recuperati o riciclati facilmente. I produttori sono coordinati dal Centro di Coordinamento RAEE (CDC RAEE) che applica e fa rispettare le regole in modo da rendere uniforme la gestione dei RAEE su tutto il territorio italiano. Il documento che segue sarà strutturato in quattro parti. La prima parte è relativa all’inquadramento normativo della tematica dei RAEE sia a livello europeo (con l’analisi della direttiva ROHS 2 sulle sostanze pericolose contenute nei RAEE e la Direttiva RAEE), sia a livello italiano (con un’ampia discussione sul Decreto Legislativo 151/2005 e Accordi di Programma realizzati fra i soggetti coinvolti). La seconda parte tratta invece il sistema di gestione dei RAEE descrivendo tutte le fasi principali come la raccolta, il trasporto e raggruppamento, il trattamento preliminare, lo smontaggio, il riciclaggio e il recupero, il ricondizionamento, il reimpiego e la riparazione. La terza definisce una panoramica delle principali metodologie di smaltimento dei 5 raggruppamenti di RAEE (R1, R2, R3, R4, R5). La quarta ed ultima parte riporta i risultati a livello italiano, europeo ed extra-europeo nella raccolta dei RAEE, avvalendosi dei report annuali redatti dai principali sistemi di gestione dei vari paesi considerati.
Resumo:
Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.
Resumo:
The work for the present thesis started in California, during my semester as an exchange student overseas. California is known worldwide for its seismicity and its effort in the earthquake engineering research field. For this reason, I immediately found interesting the Structural Dynamics Professor, Maria Q. Feng's proposal, to work on a pushover analysis of the existing Jamboree Road Overcrossing bridge. Concrete is a popular building material in California, and for the most part, it serves its functions well. However, concrete is inherently brittle and performs poorly during earthquakes if not reinforced properly. The San Fernando Earthquake of 1971 dramatically demonstrated this characteristic. Shortly thereafter, code writers revised the design provisions for new concrete buildings so to provide adequate ductility to resist strong ground shaking. There remain, nonetheless, millions of square feet of non-ductile concrete buildings in California. The purpose of this work is to perform a Pushover Analysis and compare the results with those of a Nonlinear Time-History Analysis of an existing bridge, located in Southern California. The analyses have been executed through the software OpenSees, the Open System for Earthquake Engineering Simulation. The bridge Jamboree Road Overcrossing is classified as a Standard Ordinary Bridge. In fact, the JRO is a typical three-span continuous cast-in-place prestressed post-tension box-girder. The total length of the bridge is 366 ft., and the height of the two bents are respectively 26,41 ft. and 28,41 ft.. Both the Pushover Analysis and the Nonlinear Time-History Analysis require the use of a model that takes into account for the nonlinearities of the system. In fact, in order to execute nonlinear analyses of highway bridges it is essential to incorporate an accurate model of the material behavior. It has been observed that, after the occurrence of destructive earthquakes, one of the most damaged elements on highway bridges is a column. To evaluate the performance of bridge columns during seismic events an adequate model of the column must be incorporated. Part of the work of the present thesis is, in fact, dedicated to the modeling of bents. Different types of nonlinear element have been studied and modeled, with emphasis on the plasticity zone length determination and location. Furthermore, different models for concrete and steel materials have been considered, and the selection of the parameters that define the constitutive laws of the different materials have been accurate. The work is structured into four chapters, to follow a brief overview of the content. The first chapter introduces the concepts related to capacity design, as the actual philosophy of seismic design. Furthermore, nonlinear analyses both static, pushover, and dynamic, time-history, are presented. The final paragraph concludes with a short description on how to determine the seismic demand at a specific site, according to the latest design criteria in California. The second chapter deals with the formulation of force-based finite elements and the issues regarding the objectivity of the response in nonlinear field. Both concentrated and distributed plasticity elements are discussed into detail. The third chapter presents the existing structure, the software used OpenSees, and the modeling assumptions and issues. The creation of the nonlinear model represents a central part in this work. Nonlinear material constitutive laws, for concrete and reinforcing steel, are discussed into detail; as well as the different scenarios employed in the columns modeling. Finally, the results of the pushover analysis are presented in chapter four. Capacity curves are examined for the different model scenarios used, and failure modes of concrete and steel are discussed. Capacity curve is converted into capacity spectrum and intersected with the design spectrum. In the last paragraph, the results of nonlinear time-history analyses are compared to those of pushover analysis.
Resumo:
Oggetto di questa tesi di laurea è la riqualificazione funzionale ed energetica di un'autorimessa per corriere costruita a Forlì nel 1935 dal geom. Alberto Flamigni e di proprietà dell' ATR, Agenzia per la Mobilità della provincia di Forlì-Cesena. Al deposito per corriere sono annessi dei piccoli capanni adibiti a magazzini ed una palazzina per uffici costruita negli anni '50, non facente parte del progetto originale. Oggi l'intero complesso risulta in disuso e la richiesta espressa dall'Amministrazione Comunale di Forlì è quella di adattare il comparto per ospitare funzioni musicali, d'intrattenimento e cultura, pensando anche ad un collegamento col manufatto storico dell'Arena Forlivese; quest'ultima, costruita negli anni '20, è situata ai margini del lotto in esame, risulta di proprietà privata ed oggi versa in condizioni di grave degrado. Uno dei fini del progetto, sul filo conduttore delle richieste dell'Amministrazione, è quello di mantenere l'involucro originale dell'edificio, su cui grava anche un vincolo storico, essendo stato progettato durante il periodo fascista ed avendo forti richiami alle soluzioni architettoniche adottate da Marcello Piacentini. Si è quindi deciso di lavorare al suo interno, al fine di creare dei nuclei indipendenti che ospitano le nuove funzioni di auditorium, mediateca, spazio espositivo, sale prova, camerini, mantenendo invece intatto il perimetro in mattoni facciavista con basamento in travertino. Il fronte esposto a sud, essendo stato originariamente pensato come mero elemento di chiusura, senza basamento e sistema di rivestimento ma semplicemente intonacato, si distacca dal resto dell'involucro ed è stato perciò oggetto di maggiori modifiche, in relazione anche al nuovo orientamento d'ingresso pensato per il comparto: l'Amministrazione Comunale ha infatti espresso il desiderio di modificare il percorso di accesso all'edificio, dal fronte nord su piazza Savonarola al fronte ovest su via Ugo Bassi. Il progetto ha adottato un approccio integrato dal punto di vista formale e costruttivo, ponendo particolare attenzione al rispetto e alla valorizzazione della struttura esistente: uno dei punti forti dell'ex deposito è infatti la sua copertura in travi reticolari in c.a. con shed vetrati orientati a nord. Tale sistema di copertura è stato mantenuto per favorire l'illuminazione degli spazi interni, isolato termicamente ed integrato con dei pannelli diffusori che garantiscono una luce uniforme e ben distribuita. Dal punto di vista funzionale e distributivo il progetto ha risposto a criteri di massima flessibilità e fruibilità degli ambienti interni, assecondando le esigenze dell'utenza. Mantenendo la finalità del minimo intervento sull'involucro esistente, nel piano terra si è adottata una tipologia di ambienti open space che delimitano il doppio volume dello spazio espositivo, pensato come un semplice e neutro contenitore, allestibile in base al tipo di mostra ed alla volontà degli organizzatori. Particolare attenzione è stata rivolta alla scelta della tipologia costruttiva per l'auditorium ed i volumi adibiti a sale prova, camerini e depositi, adottando elementi prefabbricati in legno assemblati a secco. Si sono studiati anche i sistemi impiantistici al fine di garantire un elevato livello di comfort interno e nel contempo un considerevole risparmio dal punto di vista energetico. Durante le varie fasi di avanzamento e messa a punto del progetto è stata posta grande attenzione all'aspetto acustico, dalla scelta della forma della sala al trattamento superficiale per garantire un'ottima resa prestazionale, parametro imprescindibile nella progettazione di un adeguato spazio musicale. Altro elemento preso in considerazione a scala locale e urbana è stato quello della sistemazione del cortile a sud, oggi asfaltato ed utilizzato come semplice parcheggio di autobus, al fine di trasformarlo in parco pubblico fruibile dagli utenti del complesso culturale e nel contempo elemento di connessione con l'Arena, tramite un nuovo sistema di orientamenti e percorsi.
Resumo:
A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.
Resumo:
Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.
Resumo:
La presente Tesi di Laurea nasce dalla volontà nostra di proseguire il progetto intrapreso durante il corso di Proyecto V, seguito durante la nostra esperienza Ersamus a Granada, sotto la guida dell’Arch. Elisa Valero. Il tema trattato è quello della sostenibilità urbana e in particolare quello della riqualificazione della periferia. La decisione di continuare e approfondire questo progetto è dovuto al fatto che il tema trattato è di forte attualità, soprattutto perché, fino al Protocollo di Kyoto del 2005, le massive emissioni di CO2 hanno portato ad un innalzamento del riscaldamento globale e di conseguenza ad un deterioramento inesorabile dell’intero sistema ambientale. Oltre a quello ambientale, l’altro tema che ci ha particolarmente stimolato è quello della riqualificazione della periferia, in quanto ai giorni d’oggi le condizioni delle zone periferiche delle città versano in condizioni critiche, perché vi è una carenza di servizi, di spazi pubblici e verdi e soprattutto mancano di una propria identità nella quale la società possa identificarsi e quindi i presupposti per l’aggregazione sociale. La Tesi si articola in tre parti: - una prima parte di analisi e approfondimenti sui temi della sostenibilità dello sviluppo urbano, sulla situazione attuale delle periferie metropolitane e la ricerca delle varie strategie per risolvere tali problematiche, anche grazie allo studio di ecoquartieri esistenti - la seconda parte è costituita dal lavoro preliminare per la redazione del nostro progetto, e quindi dal lavoro di analisi della città di Granada e del contesto periferico in cui si va ad inserire il progetto e dall’individuazione degli obiettivi da soddisfare e delle relative strategie per conseguirli - la terza parte consta nel progetto vero e proprio, in cui andiamo a definire le conformazioni spaziali, morfologiche e architettoniche del sito, accompagnate da strategie per uno sviluppo sostenibile della zona - nella quarta ed ultima parte ci focalizziamo sul tema della residenza, dove andremo a sia a riqualificare che realizzare edifici residenziali, studiando delle tecniche costruttive per la realizzazione di edifici a basso consumo energetico. L’obiettivo di tale progetto è la creazione di un ecoquartiere e tutti i benefici che esso comporta, per migliorare la qualità della vita dei residenti, ridurre drasticamente l’inquinamento sia atmosferico che non, incentivare l’aggregazione sociale e la vita all’aria aperta, che sono temi molto cari della cultura spagnola che però, in queste zone della città, sono ormai andati persi a causa del degrado urbano e la mancanza di identità della periferia.
Resumo:
Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.
Resumo:
Ogni luogo, ogni città, reca i segni dell’evoluzione e della trasformazione dettata dal tempo. In alcuni casi il passato viene visto con un’accezione negativa, in altri positiva a tal punto da monumentalizzarla. Nel caso della città di Verucchio non è possibile mettere in ombra il valore, e la forza della Rocca del Sasso, che per la sua storia e la sua posizione, che la rende visibile sia dall’interno che dall’esterno del centro storico, la attesta come simbolo della città. Allo stesso tempo questa città di piccole dimensioni possiede un ricco passato che non è rintracciabile all’interno della città storica ma che emerge dal verde, nonchè dagli spazi nascosti sotto il parco che cinge perimetralmente la città. Questi momenti della storia, importanti e riconoscibili, possono essere connessi nonostante sia notevole il salto temporale che li divide. Lo strumento deve essere una forma che li unisca, uno spazio pubblico, limitato ma aperto, distinguibile ma integrato nel paesaggio, un nuovo “layer” che si sovrapponga a quelli precedenti esaltandone il valore. Il tema della direzione, del percorso, è alla base dei ragionamenti e delle soluzioni proposte per la realizzazione di un museo archeologico. A differenza dei luoghi pubblici come la piazza o il teatro, in questo caso l’esposizione prevede che l’utente si muova negli ambienti, che segua in maniera dinamica una serie di spazi, di figure, di affacci, che devono essere in grado si susseguirsi in maniera fluida, attraverso un “respiro” che mantenga alta l’attenzione del visitatore. Adottato questo tema si ha la possibilità di declinarlo più volte, attraverso non solo la disposizione degli spazi ma anche con la posizione dei volumi e degli assi che li generano. Il progetto del nuovo museo si pone in una zona che può essere definita come “di cerniera” tra il centro storico e il parco archeologico. A livello territoriale questa può essere giudicata una zona critica, poiché sono più di trenta i metri di dislivello tra queste due zone della città. La sfida è quindi quella di trasformare la lontananza da problema a opportunità e relazionarsi con la conformazione del territorio senza risultare eccessivamente impattanti ed invasivi su quest’ultimo. Poiché la città di Verucchio possiede già un museo archeologico, inserito all’interno dell’ex convento e della chiesa di Sant’Agostino, il percorso archeologico, che vede il museo progettato come fulcro del tutto, prevede che il turista abbia la possibilità di conoscere la civiltà villanoviana visitando sia il museo di progetto che quello esistente, avendo questi differenti allestimenti che non creano delle “sovrapposizioni storiche”, poiché sono uno tematico e l’altro cronologico. Il museo esistente si inserisce all’interno di un edificio esistente, adattando inevitabilmente i propri spazi espositivi alla sua conformazione. La realizzazione di un una nuova struttura porterebbe a una migliore organizzazione degli spazi oltre che ad essere in grado di accogliere anche i reperti presenti all’interno dei magazzini dell’ex convento e dei beni culturali di Bologna. La necropoli Lippi è solo una delle necropoli individuate perimetralmente alla città e i reperti, rilevati, catalogati e restaurati, sono in numero tale da poter essere collocati in una struttura museale adeguata. Il progetto si sviluppa su più fronti: l’architettura, l’archeologia ed il paesaggio. Il verde è una componente fondamentale del sistema della città di Verucchio, risulta essere un elemento di unione, che funge talvolta da perimetro del centro, talvolta da copertura della nuda roccia dove l’inclinazione del terreno non ha permesso nel tempo la realizzazione di edifici e strutture urbane, si mette in contrapposizione con la forma e i colori della città.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
Il lavoro riguarda la caratterizzazione fluidodinamica di un reattore agitato meccanicamente utilizzato per la produzione di biogas. Lo studio è stato possibile attraverso l’impiego della PIV (Particle Image Velocimetry), tecnica di diagnostica ottica non invasiva adatta a fornire misure quantitative dei campi di velocità delle fasi all’interno del reattore. La caratterizzazione è stata preceduta da una fase di messa a punto della tecnica, in modo da definire principalmente l’influenza dello spessore del fascio laser e dell’intervallo di tempo tra gli impulsi laser sui campi di moto ottenuti. In seguito, il reattore è stato esaminato in due configurazioni: con albero in posizione centrata e con albero in posizione eccentrica. Entrambe le geometrie sono state inoltre analizzate in condizione monofase e solido-liquido. Le prove in monofase con albero centrato hanno permesso di identificare un particolare regime transitorio del fluido nei primi minuti dopo la messa in funzione del sistema di agitazione, caratterizzato da una buona efficienza di miscelazione in tutta la sezione di analisi. In condizioni di regime stazionario, dopo circa 1 ora di agitazione, è stato invece osservato che il fluido nella zona vicino alla parete è essenzialmente stagnante. Sempre con albero centrato, le acquisizioni in condizione bifase hanno permesso di osservare la forte influenza che la presenza di particelle di solido ha sui campi di moto della fase liquida. Per l’assetto con albero in posizione eccentrica, in condizione monofase e regime di moto stazionario, è stata evidenziata una significativa influenza del livello di liquido all’interno del reattore sui campi di moto ottenuti: aumentando il livello scalato rispetto a quello usato nella pratica industriale è stato osservato un miglioramento dell’efficienza di miscelazione grazie al maggior lavoro svolto dal sistema di agitazione. In questa configurazione, inoltre, è stato effettuato un confronto tra i campi di moto indotti da due tipologie di giranti aventi stesso diametro, ma diversa geometria. Passando alla condizione bifase con albero eccentrico, i risultati hanno evidenziato la forte asimmetria del reattore: è stato evidenziato, infatti, come il sistema raggiunga regimi stazionari differenti a seconda delle velocità di rotazione e delle condizioni adottate per il raggiungimento della stabilità. Grazie alle prove su piani orizzontali del reattore in configurazione eccentrica e condizioni bifase, è stato concluso che i sistemi in uso inducano un campo di moto prettamente tangenziale, non ottimizzato però per la sospensione della fase solida necessaria in questa tipologia di processi.
Resumo:
L'elimodellismo è una passione che lega un numero sempre maggiore di persone: nuove manifestazioni vengono organizzate in tutto il mondo e nuove discipline vengono continuamente proposte. Questo è il caso della disciplina speed in cui i piloti si sfidano a far volare i propri elimodelli alle massime velocità. L'azienda SAB Heli Division s.r.l., come produttore di pale per elimodelli e della serie di elicotteri Goblin, ha interesse a sostenere i propri piloti con le proprie macchine, facendo sì che siano veloci e competitive. Per questo ha voluto sviluppare una pala che, montata sul proprio elicottero specifico per questa disciplina, possa vincere la concorrenza con l'ambizione di stabilire un primato di velocità a livello internazionale. Il problema è quindi quello di sviluppare una pala che ottimizzasse al meglio le caratteristiche dell'elimodello Goblin Speed, in modo da sfruttare al meglio la potenza installata a bordo. Per via dei limiti sui mezzi a disposizione l'ottimizzazione è stata portata avanti mediante la teoria dell'elemento di pala. Si è impostato il calcolo determinando la potenza media su una rotazione del rotore in volo avanzato a 270 km/h e quindi attraverso gli algoritmi di ottimizzazione globale presenti nel codice di calcolo MATLAB si è cercato il rotore che permettesse il volo a tale velocità al variare del raggio del disco del rotore, dello svergolamento della pala e della distribuzione di corda lungo la pala. Per far sì che si abbiano risultati più precisi si sono sfruttati alcuni modelli per stimare il campo di velocità indotta o gli effetti dello stallo dinamico. Inoltre sono state stimate altre grandezze di cui non sono noti i dati reali o di cui è troppo complesso, per le conoscenze a disposizione, avere un dato preciso. Si è tuttavia cercato di avere stime verosimili. Alcune di queste grandezze sono le caratteristiche aerodinamiche del profilo NACA 0012 utilizzato, ottenute mediante analisi CFD bidimensionale, i comandi di passo collettivo e ciclico che equilibrano il velivolo e la resistenza aerodinamica dell'intero elimodello. I risultati del calcolo sono stati confrontati innanzitutto con le soluzioni già adottate dall'azienda. Quindi si è proceduto alla realizzazione della pala e mediante test di volo si è cercato di valutare le prestazioni della macchina che monta la pala ottenuta. Nonostante le approssimazioni adottate si è osservato che la pala progettata a partire dai risultati dell'ottimizzazione rispecchia la filosofia adottata: per velocità paragonabili a quelle ottenute con le pale prodotte da SAB Heli Division, le potenze richieste sono effettivamente inferiori. Tuttavia non è stato possibile ottenere un vero e proprio miglioramento della velocità di volo, presumibilmente a causa delle stime delle caratteristiche aerodinamiche delle diverse parti del Goblin Speed.
Resumo:
Oggetto di questa tesi è lo studio di metodologie sperimentali per la valutazione della resistenza fluidodinamica passiva su un nuotatore. In primo luogo è stata effettuata una panoramica sulle resistenze alle quali un corpo è sottoposto in ambiente natatorio e sui parametri principali che le influenzano. Scopo principale della tesi è quello di valutare la possibilità di misurare la resistenza idrodinamica passiva attraverso tecniche alternative che prevedano una valutazione della resistenza mediante la misura dell’energia cinetica contenuta nella scia che il corpo genera. In particolare viene descritto il metodo di Onorato che sembra fornire la migliore formulazione per la determinazione della resistenza di in corpo immerso in un fluido. Infine, vengono descritte possibili tecniche sperimentali attraverso le quali possono essere determinati i termini di velocità e pressione presenti nelle equazioni del metodo.
Resumo:
Il Palazzo delle Cento Finestre è situato nel comune di Sarsina, sulla sommità del colle prospiciente la città, in una posizione strategica da cui si domina gran parte della valle. E' sorto come presidio militare in età medievale (è già citato nella "Descriptio Romandiole" del 1371 con il nome "Castrum Casalecli"), ma ha visto nel corso della storia il succedersi di numerose trasformazioni. Nel Cinquecento, con l'avvento dei nuovi signori, i Conti Bernardini della Massa, è stato trasformato in palazzo e residenza nobiliare e, nell'Ottocento, a seguito della morte dell'ultima erede della famiglia Bernardini, il palazzo è stato convertito in casa colonica e negli anni è diventato residenza di più nuclei familiari. Nonostante le numerose trasformazioni subite, il manufatto conserva il proprio fascino storico a partire dall'androne di ingresso, coperto da una volta a botte su cui sono ancora visibili tracce di alcuni affreschi, da qui è possibile accedere al cortile interno o entrare nella piccola chiesa, nella quale è visibile la tomba del conte Achille Bernardini. All'interno si sono conservati preziosi ambienti, tra cui stanze voltate su tutti i piani, un nobile scalone in pietra ed un ampio salone contenente un camino su cui è scolpito lo stemma dei Conti Bernardini. Il progetto di conservazione e valorizzazione prevede l'inserimento di un ristorante al piano terra, un B&B al primo piano e di una cantina-enoteca al piano seminterrato. In questo modo vengono rispettate le destinazioni d'uso originarie del palazzo, permettendo di limitare il più possibile l'invasività degli interventi previsti. Sono stati approfonditi il tema impiantistico, tramite un accurato rilievo degli impianti esistenti e il progetto di nuove soluzioni integrate, e paesaggistico, con la riorganizzazione dell'area circostante il manufatto e il progetto di percorsi nel bosco limitrofo.
Resumo:
In questa tesi si cercherà di passare in rassegna le caratteristiche fondamentali dei principali tipi galattici. Dopo un breve ex-cursus storico, si passerà al primo capitolo, nel quale si osserverà come le prime catalogazioni si siano basate sulla morfologia di questi oggetti. Si cercherà quindi di mostrare come molte grandezze fisiche siano strettamente legate all’aspetto che questi oggetti celesti mostrano. Nel secondo capitolo verranno trattate le principali caratteristiche fotometriche: si mostreranno isofote di galassie ellittiche, si accennerà al fenomeno dell’isophotal twist, si introdurranno diversi profili di brillanza, sia per galassie ellittiche che per galassie a spirale. Nel terzo ed ultimo capitolo si tratteranno le caratteristiche cinematiche dei due principali tipi galattici. Riusciremo, a questo punto, a trovare una relazione tra l’isophotal twist e le caratteristiche cinematiche delle galassie ellittiche. Dopo aver introdotto il concetto di dispersione di velocità, sarà possibile introdurre brevemente il piano fondamentale, importante relazione tra le caratteristiche principali delle galassie ellittiche. Si discuterà infine della particolare curva di rotazione delle galassie a spirale, la cui velocità si mantiene costante ben oltre i limiti di quanto si possa stimare osservando la materia visibile; questa peculiarità delle galassie a spirale ha portato direttamente all’idea che possa esserci della materia oscura in grado di esercitare una attrazione gravitazionale sulla materia ordinaria.