341 resultados para Metodo de intervencao
Resumo:
L'obiettivo dell'elaborato è definire gli importi delle voci fondamentali in ingresso al metodo di calcolo tramite un'intensa ricerca bibliografica in materia e realizzare un procedimento pratico di riferimento applicato al campo delle infrastrutture stradali. I risultati ottenuti dal calcolo sono stati verificati e confrontati con test di sensitività sulle variabili critiche (Analisi di Sensitività, Analisi di Switch e Analisi di Rischio).
Resumo:
In questo lavoro verrà analizzato lo sviluppo di una nuova modellazione matematica per la simulazione della dinamica del flusso all’interno del sistema di aspirazione per motori sovralimentati. Tale modellazione si basa sulla risoluzione numerica mediante la formulazione proposta da Courant, Isaacson e Rees (CIR) nel 1952 per il set delle equazioni non conservative di Eulero per il caso monodimensionale. L’applicazione attraverso il software Matlab-Simulink di tali discretizzazioni numeriche garantisce la possibilità di calcolare la dinamica del flusso all’interno del condotto. L’innovazione proposta da questo lavoro consiste nel considerare l’intero stato da iterare come un vettore, permettendo di gestire parte delle operazioni da compiere con delle matrici. Questo approccio è stato adottato sia per una maggior velocità di calcolo, sia per rendere più agevole la modifica della geometria, ad esempio in fase di progettazione. La routine di lancio del nuovo modello, infatti, gestirà autonomamente la scrittura delle matrici, a partire dai pochi parametri necessari per la definizione della geometria all’interno del codice. Si andranno quindi a presentare i passaggi più importanti che hanno portato alla scrittura del codice, con particolare attenzione poi alla fase di validazione del modello. Essa sarà basata sia su un altro codice presente in letteratura, modellato anch’esso attraverso risoluzione CIR, sia mediante dati sperimentali utilizzati per la validazione di tale implementazione. Seguirà infine un’analisi dettagliata sui fattori che influenzano, positivamente e negativamente, l’esito delle simulazioni realizzate, come la discretizzazione spaziale e quella temporale, prestando sempre particolare attenzione alla stabilità del metodo.
Resumo:
Abbiamo analizzato compiutamente la conformazione attuale della città di Bologna, individuandone gli elementi caratterizzanti, i punti di forza e le criticità, per riuscire a riconnetterla sia al tessuto del centro storico sia a quello rurale. Il tipo di metodo scelto riprende in parte quello utilizzato nell’analisi delle mappe storiche, lavorando attorno a tre temi fondamentali: spazi aperti, tessuto urbano e viabilità. La consapevolezza profonda della realtà e delle dinamiche presenti ci ha portato ad individuare la soluzione che riteniamo essere più funzionale per la riconnessione delle differenti zone, utilizzando la fascia come filtro tra campagna e città. L’obiettivo individuato è quello di sfruttare la linea ferroviaria in disuso convertendola in una linea di tram-treno, una infrastruttura elettrica e a basso impatto ambientale che funzioni in modo agile e puntuale contribuendo in maniera significativa alla mobilità da e verso il centro storico di Bologna, con fermate nei principali fatti urbani come il complesso fieristico, la nuova sede comunale, il centro di ricerca, il polo universitario, i centri sportivi e commerciali. Parte della stessa linea ferroviaria, in particolare il tratto ovest, verrà riqualificato creando un parco lineare sulla sede della linea stessa, come realizzato a Parigi per la “promenade plantée” o a New York con la “highline”, restituendo ai bolognesi un percorso cittadino che valorizzi la natura, la riflessione ed il benessere. Un collegamento tra diverse aree urbane caratterizzato da un flusso più lento esclusivo dei pedoni e dei ciclisti, che trova una sua continuità naturalistica ad ovest andando a collegarsi al parco fluviale del canale Reno, proseguendo invece ad est parallelamente alla linea di tram-treno, creando una continuità di percorsi ciclo-pedonali che si integrano agli esistenti raggiungendo le zone centrali della città. L’intento è quello di incanalare il flusso non carrabile proveniente dalle aree rurali e dalla tangenziale, anche attraverso parcheggi scambiatori, in un percorso privilegiato, funzionale e naturalistico che permetta di raggiungere il centro storico e anche la zona collinare risalendo lungo il parco fluviale, dando ai fruitori la possibilità di osservare Bologna con più tranquillità e da un punto di vista nuovo.
Resumo:
La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Questa relazione finale è incentrata sul lavoro sperimentale richiesto dalla collaborazione con l’azienda Natural Salumi ed ha come obiettivo principale quello di verifica dei parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda ha infatti messo a punto un nuovo “prodotto funzionale” addizionando componenti aventi attività nutraceutica al salame ottenuto da sole parti magre di suino (tipo NaturalFetta) e si propone di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici esercitati sulla salute umana. Sul prodotto di nuova formulazione si effettueranno sia la determinazione della percentuale lipidica mediante metodo ufficiale Soxhlet ed automatizzato Soxtec, al fine di individuare il quantitativo totale della parte grassa, che una caratterizzazione del profilo quali-quantitativo in acidi grassi, fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06 (e successivi come il Reg. UE 432/2012) previsti per le indicazioni da inserire in etichetta (claims) per i prodotti arricchiti con acidi grassi polinsaturi (PUFA). La determinazione del profilo in acidi grassi e, nello specifico, del contenuto in acido -linolenico, sarà realizzata mediante gascromatografia previa estrazione della frazione lipidica dei salumi con metodo di Folch modificato, che prevede un'estrazione solido-liquido. La concentrazione di acido alfa-linolenico sarà inoltre monitorata durante tutto il periodo di shelf-life del prodotto (45 gg) al fine di valutare eventuali variazioni durante la conservazione. Per soddisfare quest’ultima finalità, le analisi saranno eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. Le stesse analisi verranno inoltre condotte sia sul prodotto a formulazione classica che su un prodotto del tutto simile, commercializzato da un’altra azienda e considerato come leader di mercato. In relazione ad un possibile aumento di ossidabilità della frazione lipidica, sarà realizzato un controllo dei parametri chimici, qualitativi e compositivi, con particolare riferimento ai prodotti di ossidazione del colesterolo (date le loro implicazioni in ambito biomedico). La maggiore presenza in formulazione di acidi grassi polinsaturi potrebbe infatti favorire un incremento dei COPs (Cholesterol Oxidation Products), che saranno separati, identificati e quantificati mediante la procedura SPE/GC-MS (estrazione e purificazione in fase solida accoppiata ad analisi gascromatografica con rivelazione mediante spettrometria di massa).
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Il bacino ligure, pur facendo parte della più grande area marina protetta del Mar Mediterraneo, il Santuario Pelagos, risulta essere una regione in cui le attività umane stanno condizionando la presenza di numerose specie di Cetacei. Fra tutte Tursiops truncatus, in virtù della sua distribuzione limitata per lo più alle acque basse (<200 metri) è la specie maggiormente soggetta alle conseguenze dirette e indirette dell’impatto antropico. Questo elaborato è stato condotto all’interno del più ampio progetto “Delfini Metropolitani” coordinato dall’Acquario di Genova. L’area di studio presa in esame è l’intero levante ligure con tre stazioni di ormeggio: Genova, Rapallo e Lerici. Tramite la tecnica della cattura-ricattura fotografica è stato possibile analizzare la distribuzione ed effettuare delle stime di abbondanza per il periodo di studio 2005 – 2012. Dai risultati e dal confronto con altri studi è emerso che il tursiope vive entro la piattaforma continentale e sembrerebbe che all’aumentare di quest’ultima aumenti la dimensione della popolazione. Per il periodo di studio considerato la popolazione non fa registrare trend demografici significativi, rimanendo costante fra 150 - 250 individui. In questo elaborato si sono anche studiate le differenze fra maschi e femmine nell’evoluzione dei marcaggi naturali. I risultati preliminari hanno mostrato una differenza significativa fra i due sessi. Il maschio ha un valore maggiore come cambiamento rispetto alle femmine, questo è dovuto al fatto che gli individui maschi hanno interazioni spesso aggressive per poter accedere alle femmine. Infine grazie all’analisi dell’evoluzione dei marcaggi naturali e delle differenze trovate, si è proposto un nuovo metodo per poter sessare gli animali. Questo qui proposto, comunque, è un metodo derivante da uno studio preliminare e si ha bisogno di successivi studi per testarne l’efficienza e l’affidabilità.
Resumo:
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Resumo:
I farmaci sono una nuova classe di inquinanti ambientali ubiquitari che raggiungono, insieme alle acque fognarie, i depuratori urbani che non sono in grado di rimuoverli o degradarli. Così le acque depurate, ancora ricche di farmaci, si riversano nei canali riceventi portando questo carico di inquinanti fino ai fiumi e ai laghi. L’obiettivo del presente studio è stato fornire un contributo alla valutazione del rischio ecologico associato al rilascio di miscele di farmaci nell’ambiente acquatico, verificando con esperimenti di laboratorio gli effetti dell’esposizione congiunta a propranololo e fluoxetina sulla riproduzione di Daphnia magna, crostaceo planctonico d’acqua dolce. Il propranololo è un farmaco beta-bloccante, ossia blocca l'azione dell'adrenalina sui recettori adrenergici di tipo beta del cuore e viene utilizzato contro l’ipertensione. La fluoxetina è un antidepressivo, inibitore selettivo della ricaptazione della serotonina. Sono stati eseguiti test cronici (21 giorni) con solo propranololo (0,25 - 2,00 mg/L) e con solo fluoxetina (0,03 - 0,80 mg/L) che hanno stimato un EC50 per la riproduzione di 0,739 mg/L e di 0,238 mg/L, rispettivamente. L’ultima fase sperimentale consisteva in un test cronico con 25 miscele contenti percentuali diverse dei due farmaci (0%; 25%; 50%; 75%; 100%) e con diverse concentrazioni totali (0,50; 0,71; 1,00; 1,41; 2,00 unità tossiche). Le unità tossiche sono state calcolate sulla base degli EC50 dei precedenti test cronici con i singoli farmaci. I dati sperimentali del test sono stati analizzati utilizzando MixTox, un metodo statistico per la previsione degli effetti congiunti di miscele di sostanze tossiche, che ha permesso di stabilire quale fosse il modello in grado di rappresentare al meglio i risultati sperimentali. Il modello di riferimento utilizzato è stato la concentration addition (CA) a partire dal quale si è identificato il modello che meglio rappresenta l’interazione tra i due farmaci: antagonism (S/A) dose ratio dependent (DR). Infatti si evidenzia antagonismo per tutte le miscele dei due farmaci, ma più accentuato in presenza di una maggiore percentuale di propranololo. Contrariamente a quanto verificato in studi su altre specie e su effetti biologici diversi, è comunque stato possibile evidenziare un affetto avverso sulla riproduzione di D. magna solo a concentrazioni di propranololo e fluoxetina molto più elevate di quelle osservate nelle acque superficiali.
Resumo:
Dalla collaborazione fra il Comune di Ravenna ed ENI ha preso origine il progetto “RIGED – Ra” ossia il “Progetto di ripristino e gestione delle dune costiere ravennati”. Nell’ambito di tale attività sperimentale si è voluto effettuare una caratterizzazione dell’idrologia di una limitata, ma rappresentativa, porzione dell’acquifero freatico costiero situata in un cordone di dune posto nella Pineta di Lido di Classe, a sud di Foce Bevano. Lo studio si pone di essere rappresentativo per le caratteristiche idrogeologiche delle dune costiere adriatiche nella zona di Ravenna. A tale fine è stato valutato l’andamento di alcuni parametri chimico-fisici delle acque sotterranee; inoltre, è stata monitorata mensilmente la profondità della tavola d’acqua (water table - WT). Questi monitoraggi hanno permesso di descrivere la distribuzione delle acque dolci e di quelle salate nonché la loro dinamica stagionale. Infine, è stata eseguita un’analisi idro-geochimica con l’intento di valutare la tipologia delle acque presenti nell’area in esame e la loro eventuale variazione stagionale. Per la raccolta dei campioni è stata sfruttata l’innovativa metodologia a minifiltri utilizzata da alcuni anni nel nord dell’Europa, in modo particolare in Olanda. Questa tecnica ha due caratteristiche peculiari: i tempi di campionamento vengono ridotti notevolmente ed, inoltre, permette un’ottima precisione e rappresentatività delle acque di falda a diverse profondità poiché si effettua un campionamento ogni 0,50 m. L’unico limite riscontrato, al quale vi è comunque rimedio, è il fatto che la loro posizione risulti fissa per cui, qualora vi siano delle fluttuazioni dell’acquifero al di sopra del minifiltro più superficiale, queste non vengono identificate. È consigliato quindi utilizzare questo metodo di campionamento poiché risulta essere più performante rispetto ad altri (ad esempio al sistema che sfrutta lo straddle packers SolinstTM ) scegliendo tra due diverse strategie per rimediare al suo limite: si aggiungono minifiltri superficiali che nel periodo estivo si trovano nella zona vadosa dell’acquifero oppure si accompagna sempre il campionamento con una trivellata che permetta il campionamento del top della falda. Per quanto concerne la freatimetria il campionamento mensile (6 mesi) ha mostrato come tutta l’area di studio sia un sistema molto suscettibile all’andamento delle precipitazioni soprattutto per la fascia di duna prossima alla costa in cui la scarsa vegetazione e la presenza di sedimento molto ben cernito con una porosità efficace molto elevata facilitano la ricarica dell’acquifero da parte di acque dolci. Inoltre, sul cordone dunoso l’acquifero si trova sempre al di sopra del livello medio mare anche nel periodo estivo. Per questa caratteristica, nel caso l’acquifero venisse ricaricato artificialmente con acque dolci (Managed Aquifer Recharge), potrebbe costituire un efficace sistema di contrasto all’intrusione salina. Lo spessore d’acqua dolce, comunque, è molto variabile proprio in funzione della stagionalità delle precipitazioni. Nell’area retro-dunale, invece, nel periodo estivo l’acquifero freatico è quasi totalmente al di sotto del livello marino; ciò probabilmente è dovuto al fatto che, oltre ai livelli topografici prossimi al livello medio mare, vi è una foltissima vegetazione molto giovane, ricresciuta dopo un imponente incendio avvenuto circa 10 anni fa, la quale esercita una notevole evapotraspirazione. È importante sottolineare come durante la stagione autunnale, con l’incremento delle precipitazioni la tavola d’acqua anche in quest’area raggiunga livelli superiori a quello del mare. Dal monitoraggio dei parametri chimico – fisici, in particolare dal valore dell’Eh, risulta che nel periodo estivo l’acquifero è un sistema estremamente statico in cui la mancanza di apporti superficiali di acque dolci e di flussi sotterranei lo rende un ambiente fortemente anossico e riducente. Con l’arrivo delle precipitazioni la situazione cambia radicalmente, poiché l’acquifero diventa ossidante o lievemente riducente. Dalle analisi geochimiche, risulta che le acque sotterranee presenti hanno una composizione esclusivamente cloruro sodica in entrambe le stagioni monitorate; l’unica eccezione sono i campioni derivanti dal top della falda raccolti in gennaio, nei quali la composizione si è modificata in quanto, il catione più abbondante rimane il sodio ma non si ha una dominanza di un particolare anione. Tale cambiamento è causato da fenomeni di addolcimento, rilevati dall’indice BEX, che sono causati all’arrivo delle acque dolci meteoriche. In generale, si può concludere che la ricarica superficiale e la variazione stagionale della freatimetria non sono tali da determinare un processo di dolcificazione in tutto l’acquifero dato che, nelle zone più profonde, si rivela la presenza permanente di acque a salinità molto superiore a 10 g/L. La maggior ricarica superficiale per infiltrazione diretta nelle stagioni a più elevata piovosità non è quindi in grado di approfondire l’interfaccia acqua dolce-acqua salata e può solamente causare una limitata diluizione delle acque di falda superficiali.
Resumo:
Sviluppo di uno studio numerico, tramite metodo agli elementi finiti (FEM), sull'effetto di bordo in giunti incollati a sovrapposizione semplice (unsupported single-lap joints). E’ stata implementata l’analisi numerica di provini standard da normativa relativa a test sperimentali, per giunzioni tra lamine metalliche e tra materiali compositi in fibre di carbonio/matrice epossidica (CFRP). E’ stato cercata la geometria del bordo dello strato adesivo che potrebbe garantire una maggiore resistenza del giunto.
Resumo:
La tesi vuole verificare se il metodo dell'apprendimento cooperativo può essere utilizzato per facilitare l'inclusione di studenti con DSA.
Resumo:
La tesi qui presentata è stata svolta all’interno del Laboratorio di Sintesi Finale “Architettura sostenibile" e propone la riqualificazione di un edificio ACER, sito a Bologna in via Gandusio, un’area strategicamente centrale a ridosso del centro storico e al contempo inserita all’interno delle dinamiche urbane della prima periferia. Si tratta di un complesso di edilizia residenziale sociale e, perciò, è stato necessario elaborare preliminarmente una sorta di quadro conoscitivo per individuare le problematiche e le tendenze comuni sia a casistiche italiane che europee. Dopo un inquadramento generale sulla situazione dei modelli famigliari e dell’abitare; è stata effettuata una panoramica su alcuni interventi europei, dai quali si è cercato di attingere e elaborare soluzioni e metodologie di intervento innovative, prendendo in considerazione sia elementi di rigenerazione del tessuto urbano, sia soluzioni tecnologiche e costruttive applicate a casi specifici. La situazione dell’edilizia residenziale sociale, attualmente, vede una forte scarsità di alloggi, tale da non riuscire a soddisfare tutte le richieste della popolazione. Negli ultimi trenta anni, la quota di produzione di alloggi di edilizia sociale è progressivamente calata, contrariamente agli altri paesi europei, caratterizzati da un andamento costante. Al contempo, si è registrato l’aumento di persone in condizioni di disagio abitativo e sociale. Il progetto risponde alle eterogenee esigenze dei rinnovati modelli famigliari contemporanei, prevedendo opere di completamento funzionale e una diversificazione dell’offerta tipologica degli alloggi, unita all’integrazione di nuovi servizi per gli abitanti e alla rivalorizzazione dell’identità dell’edificio in quanto manufatto polarizzante. Il progetto adotta il metodo della riqualificazione sostenibile e delle tematiche ad essa inerenti, approfondite durante il percorso di lavoro svolto all’interno del Laboratorio di Sintesi Finale “Architettura Sostenibile”. Tutti gli interventi eseguiti sul manufatto sono stati incentrati sul tema della sostenibilità, per ridurre l’uso dei materiali e l’uso del territorio. Sono stati ridotti i deficit tecnologici e soprattutto energetici dell’involucro edilizio, combinando all’applicazione di soluzioni tecnologiche la riqualificazione dello spazio urbano e della funzionalità degli spazi dell’abitare. Questo lavoro si propone di confrontarsi con la condizione attuale dell’housing sociale, cercando di rispondere alle esigenze abitative contemporanee, riqualificando e ripensando gli spazi e migliorandone il comportamento strutturale in caso di evento sismico. Per evitare di trattarlo come un episodio sporadico, un’anomalia, l’intervento ha cercato di collocarsi all’interno del contesto urbano e del tessuto insediativo, dialogando con essi per fornire risposte a problematiche concrete e reali. Per questo si è deciso di intervenire anche sulle aree adiacenti, provando a fornire soluzioni alle dinamiche incompiute e alle esigenze sociali del quartiere.
Resumo:
Il lavoro di tesi, svolto presso l’Istituto di Scienza e Tecnologia dei Materiali Ceramici (ISTEC-CNR, Faenza, RA), ha affrontato la produzione e la caratterizzazione di ceramici a base di boruro di zirconio (ZrB2) con lo scopo di valutare l’efficacia delle fibre corte di carbonio come potenziale rinforzo. Il boruro di zirconio appartiene a una famiglia di materiali noti come UHTC (Ultra-High Temperature Ceramics) caratterizzati da elevato punto di fusione e in grado di mantenere la resistenza meccanica e operare con limitata ossidazione a temperature superiori ai 2000°C. Il principale ostacolo nella produzione dei materiali a base di ZrB2 è il processo di sintesi, infatti, a causa della loro elevata temperatura di fusione, per ottenere un materiale completamente denso è necessario utilizzare processi a temperatura e pressione elevati (T > 2000°C e P > 30 MPa), condizioni che vanno ad influenzare la microstruttura della matrice e delle fibre e di conseguenza le proprietà meccaniche del materiale. L’aggiunta di additivi di sinterizzazione idonei permette di ottenere materiali perfettamente densi anche a temperature e pressioni inferiori. Tuttavia lo ZrB2 non viene ampiamente utilizzato per applicazioni strutturali a causa della sua fragilità, per far fronte alla sua bassa tenacità il materiale viene spesso rinforzato con una fase allungata (whiskers o fibre). È già oggetto di studi l’utilizzo di fibre corte e whiskers di SiC per tenacizzare lo ZrB2, tuttavia la forte interfaccia che viene a crearsi tra fibra e matrice, che non permette il pull-out delle fibre, ci porta a credere che una fibra che non tenda a reagire con la matrice, presentando un’interfaccia più debole, possa portare ad una tenacizzazione più efficace. Per questo scopo sono stati realizzati mediante pressatura a caldo due materiali rinforzati con fibre corte di carbonio: ZrB2 + 5% vol MoSi2 + 8% vol fibre di carbonio e [ZrB2 + 2 % peso C] + 8% vol fibre di carbonio, indicati rispettivamente con Z5M_Cf e Z2C_Cf. Sono stati analizzati e discussi diversi aspetti del materiale rinforzato tra cui: il comportamento di densificazione durante la pressatura a caldo, l’evoluzione della microstruttura della matrice, la distribuzione e la morfologia delle fibre, l’influenza del rinforzo sulle proprietà meccaniche di durezza e tenacità e sulla resistenza all’ossidazione. L’elaborato è strutturato come segue: inizialmente sono state introdotte le caratteristiche generali dei ceramici avanzati tra cui le proprietà, la produzione e le applicazioni; successivamente è stata approfondita la descrizione dei materiali a base di boruro di zirconio, in particolare i processi produttivi e l’influenza degli additivi di sinterizzazione sulla densificazione e sulle proprietà; ci si è poi concentrati sull’effetto di una seconda fase allungata per il rinforzo del composito. Per quanto riguarda la parte sperimentale vengono descritte le principali fasi della preparazione e caratterizzazione dei materiali: le materie prime, disperse in un solvente, sono state miscelate mediante ball-milling, successivamente è stato evaporato il solvente e la polvere ottenuta è stata formata mediante pressatura uniassiale. I campioni, dopo essere stati sinterizzati mediante pressatura uniassiale a caldo, sono stati tagliati e lucidati a specchio per poter osservare la microstruttura. Quest’ultima è stata analizzata al SEM per studiare l’effetto dell’additivo di sinterizzazione (MoSi2 e carbonio) e l’interfaccia tra matrice e fase rinforzante. Per approfondire l’effetto del rinforzo sulle proprietà meccaniche sono state misurate la durezza e la tenacità del composito; infine è stata valutata la resistenza all’ossidazione mediante prove in aria a 1200°C e 1500°C. L’addizione di MoSi2 ha favorito la densificazione a 1800°C mediante formazione di una fase liquida transiente, tuttavia il materiale è caratterizzato da una porosità residua di ~ 7% vol. L’addizione del carbonio ha favorito la densificazione completa a 1900°C grazie alla reazione dall’additivo con gli ossidi superficiali dello ZrB2. La microstruttura delle matrici è piuttosto fine, con una dimensione media dei grani di ~ 2 μm per entrambi i materiali. Nel caso del materiale con Z5M_Cf sono presenti nella matrice particelle di SiC e fasi MoB derivanti dalla reazione dell’additivo con le fibre e con la matrice; invece nel materiale Z2C_Cf sono presenti grani di carbonio allungati tra i bordi grano, residui delle reazioni di densificazione. In entrambi i materiali le fibre sono distribuite omogeneamente e la loro interfaccia con la matrice è fortemente reattiva. Nel caso del materiale Z5M_Cf si è formata una struttura core-shell con lo strato più esterno formato da SiC, formato dalla reazione tra il siliciuro e la fibra di C. Nel caso del materiale Z2C_Cf non si forma una vera e propria interfaccia, ma la fibra risulta fortemente consumata per via dell’alta temperatura di sinterizzazione. I valori di durezza Vickers dei materiali Z5M_Cf e Z2C_Cf sono rispettivamente 11 GPa e 14 GPa, valori inferiori rispetto al valore di riferimento di 23 GPa dello ZrB2, ma giustificati dalla presenza di una fase meno dura: le fibre di carbonio e, nel caso di Z5M_Cf, anche della porosità residua. I valori di tenacità dei materiali Z5M_Cf e Z2C_Cf, misurati con il metodo dell’indentazione, sono rispettivamente 3.06 MPa·m0.5 e 3.19 MPa·m0.5. L’osservazione, per entrambi i materiali, del fenomeno di pull-out della fibra, sulla superficie di frattura, e della deviazione del percorso della cricca, all’interno della fibra di carbonio, lasciano supporre che siano attivi questi meccanismi tenacizzanti a contributo positivo, unitamente al contributo negativo legato allo stress residuo. La resistenza all’ossidazione dei due materiali è confrontabile a 1200°C, mentre dopo esposizione a 1500°C il materiale Z5M_Cf risulta più resistente rispetto al materiale Z2C_Cf grazie alla formazione di uno strato di SiO2 protettivo, che inibisce la diffusione dell’ossigeno all’interno della matrice. Successivamente, sono stati considerati metodi per migliorare la densità finale del materiale e abbassare ulteriormente la temperatura di sinterizzazione in modo da minimizzare la degenerazione della fibra. Da ricerca bibliografica è stato identificato il siliciuro di tantalio (TaSi2) come potenziale candidato. Pertanto è stato prodotto un terzo materiale a base di ZrB2 + Cf contenente una maggiore quantità di siliciuro (10% vol TaSi2) che ha portato ad una densità relativa del 96% a 1750°C. Questo studio ha permesso di approcciare per la prima volta le problematiche legate all’introduzione delle fibre di carbonio nella matrice di ZrB2. Investigazioni future saranno mirate alla termodinamica delle reazioni che hanno luogo in sinterizzazione per poter analizzare in maniera più sistematica la reattività delle fibre nei confronti della matrice e degli additivi. Inoltre riuscendo ad ottenere un materiale completamente denso e con fibre di carbonio poco reagite si potrà valutare la reale efficacia delle fibre di carbonio come possibili fasi tenacizzanti.