53 resultados para Istruzione - Costi - Valutazione - Europa
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Per poter far fronte al continuo aumento della popolazione mondiale, al rapido esaurimento di molte risorse, alle sempre maggiori pressioni sull’ambiente ed ai cambiamenti climatici, l’Europa deve optare per un approccio radicalmente diverso nei confronti di produzione, consumo, trasformazione, stoccaggio, riciclaggio e smaltimento delle risorse biologiche. Al riguardo la strategia “Europa 2020” auspica lo sviluppo della bioeconomia in quanto elemento chiave per consentire una crescita intelligente e verde in Europa (Commissione Europea, 2012). Tuttavia il successo di questo settore è strettamente legato alla capacità di scegliere la strategia ottimale e le azioni efficienti in modo da creare un ambiente favorevole allo sviluppo di nuove idee ed iniziative imprenditoriali (Fucci, 2014). Questo è proprio uno degli obiettivi della tesi svolta, che descrive il progetto Biohorizons, rivolto non solo a mappare l’attuale panorama europeo nell’ambito della bioeconomia ma anche ad identificare eventuali ostacoli alla crescita e a comprendere le modalità più opportune a sostenere questo settore. Si è deciso inoltre di effettuare alcune interviste al fine di integrare le informazioni ottenute durante la realizzazione del progetto. In aggiunta, un altro obiettivo della tesi consiste nello sviluppo di una serie di indici finalizzati ad aiutare la classificazione delle bioraffinerie sulla base della loro complessità, così da offrire uno strumento utile a sostenere certe scelte dei decisori pubblici e privati.
Resumo:
Tesi riguardante le metodologie di aggregazione di costi applicate alla visione stereo, incentrata in particolare sull'algoritmo box filtering.
Resumo:
Oltre un miliardo di persone non ha oggi accesso all’acqua potabile; più di due miliardi è il numero di coloro che vivono in condizioni igienico-sanitarie realmente proibitive. Sono 80 i paesi nel mondo (con il 40% della popolazione totale) in cui si riscontra difficoltà di approvvigionamento e presenza di risorse idriche che mancano dei requisiti che dovrebbero essere assicurati per la tutela della salute: quotidianamente e sistematicamente il diritto di accesso all’acqua, che nessun individuo dovrebbe vedersi negato, viene violato. Scarsità di acqua e non omogenea distribuzione sulla superficie terrestre sono fattori che concorrono alla crisi della risorsa, cui contribuiscono processsi di natura ambientale (cambiamenti climatici, desertificazione), di natura economica (le sorti dell’industria agroalimentare, la globalizzazione degli scambi, il bisogno crescente di energia), di natura sociale (migrazioni, urbanizzazione, crescita demografica, epidemie), di natura culturale (passaggio dal rurale all’urbano, dall’agricoltura di sussistenza a quella di profitto). Nell’ottica di uno sviluppo sostenibile un aumento indiscriminato dell’offerta non può costituire soluzione al continuo incremento della domanda di acqua. Si rende pertanto necessaria la definizione di politiche e strumenti di cambiamento nei modelli di consumo e nella pianificazione che consentano una riduzione degli squilibri nella distribuzione e nella gestione della risorsa a livello domestico e civile, industriale, agricolo. L’uso efficiente, e quindi sostenibile, dell’acqua è da perseguirsi secondo le modalità: • Risparmio, inteso come minore consumo di acqua all’inizio del ciclo. • Riciclo dell’acqua in circuito chiuso, inteso come riuso dell’acqua di scarico, o uso multiplo dell’acqua. Una idonea utilizzazione dipende da una idonea progettazione, che abbia come finalità: • La destinazione in via prioritaria delle fonti e delle risorse di più elevata qualità agli usi idropotabili, con una graduale sostituzione del consumo per altri usi con risorse di minore pregio. • La regolamentazione dell’uso delle acque sotterranee, mediante la limitazione del ricorso all’impiego di pozzi solo in mancanza di forniture alternative per uso civile, industriale, agricolo. • L’incentivazione ad un uso razionale della risorsa, anche mediante l’attuazione di idonee politiche tariffarie. • L’aumento dell’efficienza delle reti di adduzione e distribuzione, sia civili che irrigue. • La promozione di uso efficiente, riciclo e recupero di acqua nell’industria. • Il miglioramento dell’efficienza ed efficacia delle tecniche di irrigazione. • La promozione del riutilizzo delle acque nei vari settori. • La diffusione nella pratica domestica di apparati e tecnologie progettati per la riduzione degli sprechi e dei consumi di acqua. In ambito agricolo la necessità di un uso parsimonioso della risorsa impone il miglioramento dell’efficienza irrigua, pari appena al 40%. La regione Emilia Romagna a livello locale, Israele a livello internazionale, forniscono ottimi esempi in termini di efficacia dei sistemi di trasporto e di distribuzione, di buona manutenzione delle strutture. Possibili soluzioni verso le quali orientare la ricerca a livello mondiale per arginare la progressiva riduzione delle riserve idriche sono: • Revisione dei costi idrici. • Recupero delle riserve idriche. • Raccolta dell’acqua piovana. • Miglioramento degli impianti di distribuzione idrica. • Scelta di metodi di coltivazione idonei alle caratteristiche locali. • Scelta di colture a basso fabbisogno idrico. • Conservazione della risorsa attraverso un sistema di irrigazione efficiente. • Opere di desalinizzazione. • Trasferimento idrico su vasta scala da un’area all’altra. Si tratta di tecniche la cui attuazione può incrementare la disponibilità media pro capite di acqua, in particolare di coloro i quali non ne posseggono in quantità sufficiente per bere o sono privi di sistemi igienico-sanitari sufficienti.
Resumo:
La necessità di sviluppare questo progetto è nata dal fatto che quando due aziende desiderano collaborare in maniera costruttiva con rapporti di fornitura di materiali o lavorazioni, bisogna evitare che si verifichino scostamenti nei rapporti a discapito di uno dei due contraenti. La coscienza dell'inefficienza di un rapporto squilibrato ha portato le due aziende a intavolare un progetto migliorativo basato sulla massima trasparenza e propositività. Quando G.D ha deciso di avvalersi della fornitura da parte di Transmec per quanto riguarda il servizio di taglio del materiale, l'ha fatto per andare a cercare un miglior livello di efficacia ed efficienza. Il raggiungimento degli attuali livelli di performance non sarebbe stato possibile se entrambe le aziende non avessero collaborato attivamente nell'ottenimento degli standard desiderati. Questo studio è nato dal fatto che il modello interno adottato precedentemente da G.D per la ripartizione dei costi delle Business Unit non era più efficace se utilizzato come strumento di pagamento. Si rendeva quindi necessaria un'analisi accurata della situazione produttiva utilizzando gli approcci analitici resi disponibili nel corso degli anni come lo strumento per l'allocazione dei costi secondo le attività (Activity Based Costing) e la mappatura dei processi utilizzata nei casi di re-ingegnerizzazione dei reparti.
Resumo:
Il presente lavoro di tesi si colloca nell’ambito della valutazione del rischio di incidente rilevante. Ai sensi della normativa europea (direttive Seveso) e del loro recepimento nella legislazione nazionale (D.Lgs. 334/99 e s.m.i.) un incidente rilevante è costituito da un evento incidentale connesso al rilascio di sostanze pericolose in grado di causare rilevanti danni all’uomo e/o all’ambiente. Ora, se da un lato esistono indici di rischio quantitativi per il bersaglio ”uomo” da tempo definiti e universalmente adottati nonché metodologie standardizzate e condivise per il loro calcolo, dall’altro non vi sono analoghi indici di rischio per il bersaglio “ambiente” comunemente accettati né, conseguentemente, procedure per il loro calcolo. Mancano pertanto anche definizioni e metodologie di calcolo di indici di rischio complessivo, che tengano conto di entrambi i bersagli citati dalla normativa. Al fine di colmare questa lacuna metodologica, che di fatto non consente di dare pieno adempimento alle stesse disposizioni legislative, è stata sviluppata all’interno del Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali dell’Università degli Studi di Bologna una ricerca che ha portato alla definizione di indici di rischio per il bersaglio “ambiente” e alla messa a punto di una procedura per la loro stima. L’attenzione è stata rivolta in modo specifico al comparto ambientale del suolo e delle acque sotterranee (falda freatica) ed ai rilasci accidentali da condotte di sostanze idrocarburiche immiscibili e più leggere dell’acqua, ovvero alle sostanze cosiddette NAPL – Non Acqueous Phase Liquid, con proprietà di infiammabilità e tossicità. Nello specifico si sono definiti per il bersaglio “ambiente” un indice di rischio ambientale locale rappresentato, punto per punto lungo il percorso della condotta, dai volumi di suolo e di acqua contaminata, nonché indici di rischio ambientale sociale rappresentati da curve F/Vsuolo e F/Sacque, essendo F la frequenza con cui si hanno incidenti in grado di provocare contaminazioni di volumi di suolo e di superfici di falda uguali o superiori a Vsuolo e Sacque. Tramite i costi unitari di decontaminazione del suolo e delle acque gli indici di rischio ambientale sociale possono essere trasformati in indici di rischio ambientale sociale monetizzato, ovvero in curve F/Msuolo e F/Macque, essendo F la frequenza con cui si hanno incidenti in grado di provocare inquinamento di suolo e di acque la cui decontaminazione ha costi uguali o superiori a Msuolo ed Macque. Dalla combinazione delle curve F/Msuolo e F/Macque è possibile ottenere la curva F/Mambiente, che esprime la frequenza degli eventi incidentali in grado di causare un danno ambientale di costo uguale o superiore a Mambiente. Dalla curva di rischio sociale per l’uomo ovvero dalla curva F/Nmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un numero di morti maggiore o uguale ad Nmorti, tramite il costo unitario della vita umana VSL (Value of a Statistical Life), è possibile ottenete la curva F/Mmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un danno monetizzato all’uomo uguale o superiore ad Mmorti. Dalla combinazione delle curve F/Mambiente ed F/Mmorti è possibile ottenere un indice di rischio sociale complessivo F/Mtotale, essendo F la frequenza con cui si verifica un danno economico complessivo uguale o superiore ad Mtotale. La procedura ora descritta è stata implementata in un apposito software ad interfaccia GIS denominato TRAT-GIS 4.1, al fine di facilitare gli onerosi calcoli richiesti nella fase di ricomposizione degli indici di rischio. La metodologia è stata fino ad ora applicata ad alcuni semplici casi di studio fittizi di modeste dimensioni e, limitatamente al calcolo del rischio per il bersaglio “ambiente”, ad un solo caso reale comunque descritto in modo semplificato. Il presente lavoro di tesi rappresenta la sua prima applicazione ad un caso di studio reale, per il quale sono stati calcolati gli indici di rischio per l’uomo, per l’ambiente e complessivi. Tale caso di studio è costituito dalla condotta che si estende, su un tracciato di 124 km, da Porto Marghera (VE) a Mantova e che trasporta greggi petroliferi. La prima parte del lavoro di tesi è consistita nella raccolta e sistematizzazione dei dati necessari alla stima delle frequenze di accadimento e delle conseguenze per l’uomo e per l’ambiente degli eventi dannosi che dalla condotta possono avere origine. In una seconda fase si è proceduto al calcolo di tali frequenze e conseguenze. I dati reperiti hanno riguardato innanzitutto il sistema “condotta”, del quale sono stati reperiti da un lato dati costruttivi (quali il diametro, la profondità di interramento, la posizione delle valvole sezionamento) e operativi (quali la portata, il profilo di pressione, le caratteristiche del greggio), dall’altro informazioni relative alle misure di emergenza automatiche e procedurali in caso di rilascio, al fine di stimare le frequenze di accadimento ed i termini “sorgente” (ovvero le portate di rilascio) in caso di rotture accidentali per ogni punto della condotta. In considerazione delle particolarità della condotta in esame è stata sviluppata una procedura specifica per il calcolo dei termini sorgente, fortemente dipendenti dai tempi degli interventi di emergenza in caso di rilascio. Una ulteriore fase di raccolta e sistematizzazione dei dati ha riguardato le informazioni relative all’ambiente nel quale è posta la condotta. Ai fini del calcolo del rischio per il bersaglio “uomo” si sono elaborati i dati di densità abitativa nei 41 comuni attraversati dall’oleodotto. Il calcolo dell’estensione degli scenari incidentali dannosi per l’uomo è stato poi effettuato tramite il software commerciale PHAST. Allo scopo della stima del rischio per il bersaglio “ambiente” è stata invece effettuata la caratterizzazione tessiturale dei suoli sui quali corre l’oleodotto (tramite l’individuazione di 5 categorie di terreno caratterizzate da diversi parametri podologici) e la determinazione della profondità della falda freatica, al fine di poter calcolare l’estensione della contaminazione punto per punto lungo la condotta, effettuando in tal modo l’analisi delle conseguenze per gli scenari incidentali dannosi per l’ambiente. Tale calcolo è stato effettuato con il software HSSM - Hydrocarbon Spill Screening Model gratuitamente distribuito da US-EPA. La ricomposizione del rischio, basata sui risultati ottenuti con i software PHAST e HSSM, ha occupato la terza ed ultima fase del lavoro di tesi; essa è stata effettuata tramite il software TRAT-GIS 4.1, ottenendo in forma sia grafica che alfanumerica gli indici di rischio precedentemente definiti. L’applicazione della procedura di valutazione del rischio al caso dell’oleodotto ha dimostrato come sia possibile un’analisi quantificata del rischio per l’uomo, per l’ambiente e complessivo anche per complessi casi reali di grandi dimensioni. Gli indici rischio ottenuti consentono infatti di individuare i punti più critici della condotta e la procedura messa a punto per il loro calcolo permette di testare l’efficacia di misure preventive e protettive adottabili per la riduzione del rischio stesso, fornendo al tempo gli elementi per un’analisi costi/benefici connessa all’implementazione di tali misure. Lo studio effettuato per la condotta esaminata ha inoltre fornito suggerimenti per introdurre in alcuni punti della metodologia delle modifiche migliorative, nonché per facilitare l’analisi tramite il software TRAT-GIS 4.1 di casi di studio di grandi dimensioni.
Resumo:
Individuazione dei valori ottimali di crescita di dinoflagellate bentoniche, valutazione della tossicità e di interazioni allelopatiche. Il fitoplancton rappresenta la base della catena trofica in ambiente marino, nonché oltre la metà della produzione primaria a livello mondiale. Le dinoflagellate, assieme alle diatomee, costituiscono la maggior parte del fitoplancton, comprendendo numerose e diversificate specie di microalghe dalla differente distribuzione, ecologia e fisiologia. Alcune specie appartenenti a tale gruppo sono in grado di dare luogo, in determinate condizioni, a estesi fenomeni di fioriture algali, che diventano particolarmente impattanti se le specie coinvolte sono responsabili della produzione di biotossine, le quali possono direttamente uccidere altri organismi o accumularsi nei loro tessuti. Gli effetti nocivi di questi fenomeni si ripercuotono pesantemente sull'ecosistema marino, con ingenti morie di organismi acquatici (da pesci a molluschi, dal bentos al necton) e profonde alterazioni nelle comunità specifiche. Un forte coinvolgimento si ha di conseguenza anche per le attività umane, in seguito a forti esternalità negative su pesca, turismo, attività ricreative, o spesso con rischi direttamente correlati alla salute umana, dovuti perlopiù ad ingestione di organismi contaminati o all'inalazione di tossine per via aerea. Negli ultimi anni le fioriture algali tossiche si sono fortemente intensificate in distribuzione, estensione e frequenza, attirando l'interesse globale della comunità scientifica. Diversi studi condotti in questo senso hanno portato all'identificazione di numerose specie di dinoflagellate tossiche e all'isolamento di una lunga serie di composti chimici con effetti dannosi da esse sintetizzate. Tuttavia si conosce ancora ben poco sull'ecologia di queste specie, in particolare su quali siano i fattori che possano indurre o regolare la proliferazione e lo sviluppo di un bloom algale. Questo studio si è focalizzato su due specie di dinoflagellate bentoniche tossiche, Ostreopsis ovata e Coolia monotis, entrambe appartenenti alla famiglia Ostreopsidaceae, note già da tempo nei paesi tropicali poiché associate alla sindrome da ciguatera. Negli ultimi anni, Ostreopsis ovata è stata oggetto di numerose ricerche in Europa, poiché ha dato luogo a fenomeni di bloom, collegati con danni respiratori nell'uomo, anche lungo i litorali italiani; soltanto recentemente grazie ad una tecnica analitica basata sulla combinazione di cromatografia liquida e spettrometria di massa (LC-MS), è stato possibile isolare la diverse tossine responsabili. Durante i vari monitoraggi e campionamenti delle acque, questa dinoflagellata è stata sempre riscontrata in presenza di Coolia monotis (e Prorocentrum lima), di cui invece si conosce ben poco, visto che la sua tossicità in Mediterraneo non è ancora stata dimostrata, né la sua tossina caratterizzata. Il primo step di questo studio è stato quello di valutare, attraverso il mantenimento di colture in vitro, l'importanza della temperatura nella crescita di O. ovata e C. monotis (singolarmente) provenienti dalla zona del monte Conero (Ancona, Marche). Esistono già studi di questo tipo su ceppi adriatici di O. ovata, tuttavia è stato effettuato un esperimento similare utilizzando un nuovo ceppo, isolato in anni recenti; per C. monotis invece non sono presenti molti studi in letteratura, in particolare nessuno riguardante ceppi italiani. La valutazione della crescita è stata effettuata attraverso conteggio delle cellule, misura dell'efficienza fotosintetica e consumo dei macronutrienti. Quindi, visto che le due specie vivono in associazione nell'ambiente marino, si è cercato di evidenziare l'instaurarsi di eventuali processi competitivi o di fenomeni di allelopatia. Dall'analisi dei risultati è emerso che, se coltivate individualmente, sia C. monotis che O. ovata mostrano un optimum di crescita alla temperatura di 20°C, con tasso di crescita, numero di cellule e rendimento fotosintetico raggiunti più elevati, seppure non di molto rispetto alle colture a 25°C. Le colture a 30°C al contrario hanno mostrato valori sensibilmente inferiori. Se fatte crescere assieme, invece, C. monotis mantiene lo stesso pattern riscontrato nella monoculture a 20 e 25°C, seppur raggiungendo numeri di cellule inferiori, mentre a 30°C ha una crescita bassissima. Al contrario, O. ovata alla temperatura più elevata raggiunge lo stesso numero di cellule della monocultura, alla temperatura intermedia registra il tasso di crescita, ma non il numero di cellule, più elevato, mentre alla temperatura più bassa (che era l'optimum per la monocultura) si ha il maggior stress per la specie, evidenziando forti fenomeni di competizione. Esperimenti su C. monotis fatta crescere in un filtrato di O. ovata non hanno invece chiarito l'esistenza o meno di eventuali effetti allelopatici di Ostreopsis su Coolia, dato che non sono apparse differenze evidenti tra il controllo e il filtrato, mentre hanno messo in luce l'importanza dei batteri associati alle microalghe come supporto alla loro crescita, poiché le colture cresciute in filtrato sterile hanno manifestato tutte quante un rendimento quantico fotosintetico inferiore.
Resumo:
Le energie rinnovabili offrono tempi brevi di disponibilità e producono un inquinamento ambientale trascurabile. L’energia fotovoltaica, nonostante i suoi costi siano in rapida diminuzione, stenta ad affermarsi a causa degli elevati costi iniziali d’investimento. Oggigiorno il film sottile rappresenta una delle tecnologie più promettenti nel mercato del fotovoltaico, offrendo numerosi vantaggi e potendo colmare i limiti dei moduli cristallini, tra cui la bassa efficienza in caso non si abbia un’esposizione ottimale. L'elaborato parte dall'intenzione de La Nuova Bassani srl, azienda presso cui ho effettuato il tirocinio, di sostituire le coperture, in amianto cemento e fibrocemento, dei suoi due magazzini con tecnologie innovative. L’argomento è stato trattato in due sezioni: introduzione al fotovoltaico, dimensionamento dell’impianto e valutazione economica dell’investimento.
Resumo:
Il lavoro valuta le prestazioni di 14 stati membri dell'Unione Europea, la quale attraverso la strategia Europa 2020 propone il raggiungimento di 8 target fondamentali per una crescita intelligente, sostenibile e inclusiva entro il 2020. I target riguardano l'occupazione, il tasso d'istruzione superiore, la percentuale di energia rinnovabile, il consumo energetico, le emissioni di gas serra, la spesa in ricerca e sviluppo, la povertà , il prematuro abbandono scolastico. A tali target corrispondono indicatori che sono annualmente censiti attraverso le autorità statistiche nazionali ed Eurostat. La misura della performance degli Stati è stata effettuata mediante il calcolo della distanza dal target di ciascun paese negli anni compresi tra il 2000 e il 2009. In particolare si è effettuato, adattandolo alle esigenze del lavoro, il calcolo della distanza euclidea e della distanza di Mahalanobis. Con le limitazioni dovute alla qualità dei dati disponibili e ad una difficoltà oggettiva di stabilire una linea di base, il lavoro ha permesso di dare un giudizio alla qualità dello sforzo compiuto da ciascun paese per raggiungere i target, fornendo un quadro analitico e articolato dei rapporti che intercorrono tra i diversi indicatori. In particolare è stato realizzato un modello relazionale basato su quattro indicatori che sono risultati essere correlati e legati da relazioni di tipo causale. I risultati possono essere sintetizzati come segue. La strategia Europa 2020 sembra partire da buone basi in quanto si è potuto osservare che in generale tutti gli stati membri osservati, Europa a 15, mostrano avere un miglioramento verso i loro rispettivi target dal 2005. Durante gli anni osservati si è notato che il range temporale 2005 e 2008 sembra essere stato il periodo dove gli stati hanno rallentato maggiormente la loro crescita di performance, con poi un buon miglioramento nell'anno finale. Questo miglioramento è stato indagato ed è risultato essere coincidente con l'anno di inizio della crisi economica. Inoltre si sono osservate buone relazioni tra il GDP e gli indicatori che hanno contribuito alla diminuzione delle performance, ma il range di riferimento non molto ampio, non ha permesso di definire la reale correlazione tra il GDP e il consumo energetico ed il GDP e l'investimento in ricerca e sviluppo.
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.
Resumo:
L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.
Resumo:
Studio su giunti incollati attraverso il metodo agli elementi finiti (FEM). E’ stata implementata l’analisi numerica su provini seguendo lo standard della normativa ASTM International relativa a prove sperimentali, per giunzioni di lamine in metallo o in materiale composito. Si è introdotto il materiale composito, cercando di inquadrarne le proprietà, i limiti e i vantaggi rispetto ai materiali tradizionalmente usati, sono stati elencati i difetti che possono nascere e svilupparsi in un composito durante la sua vita operativa, i quali, anche se di piccole dimensioni, a volte possono risultare tanto pericolosi da portare al collasso dell’intera struttura. Nasce, quindi, durante la fase di progettazione la necessità di rilevare, caratterizzare e tenere sotto controllo i danni e considerare i materiali non completamente esenti da difetti. Si è parlato, poi, del processo di riparazione, ove possibile, come alternativa alla sostituzione del componente con un notevole risparmio sui costi di manutenzione. Sono stai presi in esame i vari metodi effettuando un confronto tra essi. Per questo lavoro di tesi, è stato preso in esame l’incollaggio come metodo di fissaggio tra la membrana riparata e la struttura esistente e ne è stata descritta la teoria. Dopo questa panoramica si è passati alla verifica sugli incollaggi attraverso le analisi FEM.
Resumo:
Il rischio di caduta durante la deambulazione aumenta con l'età; le cadute comportano costi elevati per l’assistenza sanitaria ed hanno un influenza critica sullo stato di salute dell'anziano. La valutazione della stabilità del cammino rappresenta un aspetto fondamentale per la definizione di un indice del rischio di caduta. Diverse misure di variabilità e stabilità del cammino sono state proposte in letteratura con l'obiettivo di ottenere una standardizzazione metodologica e risultati affidabili, ripetibili e facilmente interpretabili. Queste misure andrebbero ad integrare, o sostituire, le scale cliniche, unico metodo attualmente in uso ma la cui affidabilità è limitata in quanto fortemente dipendente dall’operatore. Il fine ultimo è quello di definire un indice del rischio di caduta specifico per il soggetto. Gli obiettivi della tesi comprendono la valutazione della ripetibilità in dipendenza dalla lunghezza del trial di una serie di misure di variabilità e stabilità applicate al cammino di soggetti anziani, la valutazione della correlazione fra queste misure di variabilità e stabilità e il risultato delle scale cliniche e la valutazione della correlazione fra queste misure di variabilità e stabilità e la storia di caduta dei soggetti. Per fare questo si sono somministrati alcuni questionari e schede di valutazione funzionale (CIRS, Barthel, Mini-BESTest) a 70 soggetti di età superiore a 65 anni. Questi hanno eseguito inoltre una camminata lungo un tratto rettilineo di circa 100 m di lunghezza; il relativo segnale accelerometrico è stato registrato mediante sensori inerziali. Il risultato generale ottenuto è che alcune misure di stabilità come la MSE e la RQA, già in passato risultate legate alla storia di cadute, mostrano promettenti performance per la definizione del rischio di caduta.
Resumo:
Si è calcolata la percentuale di metalli rimossi (R%) da fly ash e scarti industriali ceramici sottoposti a vari tipi di leaching con acqua deionizzata, acido solforico (pH1), attacco alcalino (pH14) e trattamento combinato acido-alcalino. Il parametro R è molto importante perché è in grado di fornire un’indicazione riguardo l’effettiva efficacia di un tipo di leaching rispetto ad un altro. Così facendo è possibile valutare la reale fattibilità del recupero di materie prime critiche (secondo la Commissione Europea) da questi rifiuti. Per quanto riguarda il recupero da fly ash, il trattamento con leaching acido si dimostra il più valido per numero di elementi e percentuale di recupero. Tuttavia, anche se il leaching combinato per certi aspetti può sembrare migliore, bisogna anche considerare i costi di lavorazione, che in questo caso aumenterebbero sensibilmente. Per quanto riguarda gli scarti ceramici, è il leaching combinato a mostrare il miglior potenziale di rimozione dei metalli critici, sia in termini di percentuali che per il numero di elementi rimossi.