754 resultados para Analisi Vulnerabilità - sismica - verifiche - muratura
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
The aim of the present thesis was to investigate the influence of lower-limb joint models on musculoskeletal model predictions during gait. We started our analysis by using a baseline model, i.e., the state-of-the-art lower-limb model (spherical joint at the hip and hinge joints at the knee and ankle) created from MRI of a healthy subject in the Medical Technology Laboratory of the Rizzoli Orthopaedic Institute. We varied the models of knee and ankle joints, including: knee- and ankle joints with mean instantaneous axis of rotation, universal joint at the ankle, scaled-generic-derived planar knee, subject-specific planar knee model, subject-specific planar ankle model, spherical knee, spherical ankle. The joint model combinations corresponding to 10 musculoskeletal models were implemented into a typical inverse dynamics problem, including inverse kinematics, inverse dynamics, static optimization and joint reaction analysis algorithms solved using the OpenSim software to calculate joint angles, joint moments, muscle forces and activations, joint reaction forces during 5 walking trials. The predicted muscle activations were qualitatively compared to experimental EMG, to evaluate the accuracy of model predictions. Planar joint at the knee, universal joint at the ankle and spherical joints at the knee and at the ankle produced appreciable variations in model predictions during gait trials. The planar knee joint model reduced the discrepancy between the predicted activation of the Rectus Femoris and the EMG (with respect to the baseline model), and the reduced peak knee reaction force was considered more accurate. The use of the universal joint, with the introduction of the subtalar joint, worsened the muscle activation agreement with the EMG, and increased ankle and knee reaction forces were predicted. The spherical joints, in particular at the knee, worsened the muscle activation agreement with the EMG. A substantial increase of joint reaction forces at all joints was predicted despite of the good agreement in joint kinematics with those of the baseline model. The introduction of the universal joint had a negative effect on the model predictions. The cause of this discrepancy is likely to be found in the definition of the subtalar joint and thus, in the particular subject’s anthropometry, used to create the model and define the joint pose. We concluded that the implementation of complex joint models do not have marked effects on the joint reaction forces during gait. Computed results were similar in magnitude and in pattern to those reported in literature. Nonetheless, the introduction of planar joint model at the knee had positive effect upon the predictions, while the use of spherical joint at the knee and/or at the ankle is absolutely unadvisable, because it predicted unrealistic joint reaction forces.
Resumo:
Funzioni di adattatività delle frizioni: Sono state ricercate ed individuate le cause dei diversi risultati delle adaption riscontrati tra costruttore cambi e Ferrari Torque Map (mappe pressione-slip-coppia): E’ stato realizzato uno strumento in grado di calcolare e simulare il funzionamento delle stesse a partire dalle misure a banco: esito positivo dei test in vettura con i nuovi dati Considerazioni sul processo di rodaggio delle frizioni: E’ stata valutata l’efficacia della nuova procedura in relazione a quanto fatto in precedenza in seguito alla bassa stabilità riscontrata nelle frizioni
Resumo:
Negli ultimi decenni, in varie parti del Mondo cosi come in Italia, si è assistito a un rapido aumento di strutture abitative, fabbricati ad uso industriale, residenziale e rurale. La continua sottrazione di terreno per tali scopi ha portato a un aumento di tutta una serie di problematiche ambientali. Con la diminuzione delle aree verdi si è andati incontro a una diminuzione della trattenuta idrica del terreno, all'aumento della velocità di scolo dell'acqua e del tempo di corrivazione con conseguenze sempre più drammatiche per le aree urbanizzate nei periodi di forti piogge. Inoltre, c'è da ricordare, che una diminuzione delle aree a verde comporta, oltre al cambiamento a livello paesaggistico, anche una diminuzione della capacità delle piante di trattenere le polveri inquinanti e di produrre ossigeno. Tutti questi fattori hanno portato allo studio di soluzioni tecnologiche che potessero unire i bisogni di verde della collettività con la necessità di una gestione sostenibile delle acque meteoriche. Tra esse, una che sta trovando notevole applicazione è la creazione di aree verdi sulla copertura degli edifici. Secondo le loro caratteristiche, queste aree verdi sono denominate tetti verdi e/o giardini pensili. La struttura si compone di strati di coltivazione e drenaggio con diversa profondità e una copertura vegetale. La vegetazione utilizzata può andare da specie con bassissime richieste manutentive (tipo estensivo) ad altre con maggiori necessità (tipo intensivo), come i tappeti erbosi. Lo scopo di questa tesi è stato quello di approntare una sperimentazione sul nuovo tetto verde realizzato presso la sede di Ingegneria, via Terracini 28, volta a stimare i costi economici e ambientali sostenuti per la realizzazione dello stesso, per poi confrontarli con i benefici ambientali legati al risparmio idrico ed energetico su scala edificio e urbana. Per la stima dei costi ambientali dei materiali utilizzati, dalla nascita al fine vita, si è utilizzato il metodo LCA- Life Cycle Assessment- e il software Sima Pro
Resumo:
Analisi biomeccanica delle variabili dinamiche nel doppio e triplo salto Lutz nel pattinaggio a rotelle.
Resumo:
Analisi tecnico ambientale delle biomasse a fini energetici: il caso della regione marche
Resumo:
L'analisi storico-critica delle vicende costruttive risulta di fondamentale importanza per operare sul manufatto edilizio in maniera consapevole. Soltanto interrogando l'edificio si è in grado di comprenderne le singolarità qualitative, la vulnerabilità ed i punti critici, per agire dove necessario con tecniche compatibili e non invasive seguendo il criterio del minimo intervento. Gli interventi progettuali di miglioramento strutturale proposti si pongono a coronamento del percorso conoscitivo di ricerca svolto.
Resumo:
Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.
Resumo:
Lo scopo di questo lavoro di tesi è quello di indagare la fluidodinamica all’interna di un modello di una camera di una filtropressa. L’analisi del comportamento fluidodinamico all’interno delle filtropresse viene svolta al fine di comprendere meglio alcune problematiche relative alla gestione del processo. In particolare si è tentato di individuare le cause che inducono: 1.Rottura prematura delle tele, in particolar modo nelle camere iniziali; 2.Formazione di pannelli disomogenei che comporta complicazioni nei successivi processi (lavaggio, essiccamento, etc.). Tale studio è consistito nella determinazione e nell’analisi del campo di moto di una fase liquida all’interno di suddetta camera. I campi di moto sono stati acquisiti tramite la tecnica PIV (Particle Image Velocimetry).
Resumo:
Il seguente lavoro di tesi è stato svolto in Hera S.p.A. Il caso di studio riguarda il passaggio dalla bolletta cartacea alla bolletta elettronica. In particolare, sono stati messi a confronto i due modelli di bollettazione attraverso l'analisi LCA. In seguito sono stati calcolati i risparmi energetici conseguiti, misurati in tep, attraverso i quali è stato possibile creare una proposta di scheda tecnica per la quantificazione dei risparmi di energia primaria.
Resumo:
Questo lavoro di tesi si è posto i seguenti obiettivi: - Analizzare come i singoli parametri infuenzano le prestazioni del modello, in maniera tale da capire su quali di essi il modello risulta essere più sensibile, al fine di ottimizzare le sue prestazioni; - Fare in modo che l'intervallo di confidenza del modello sia il più vicino possibile a quello dello strumento di misura utilizzato durante lo studio clinico \Socrathe(3 mmol/l). Riuscire a portare, infatti, la deviazione standard sull'errore globale ottenuta dal modello da 1,83 mmol/l a 1,50 mmol/l significa avere un IC95% uguale a quello dello strumento di misura; - Migliorare la predizione del modello negli istanti temporali in cui esso si discosta di più dal valore vero. Una volta messi in evidenza i parametri più significativi, grazie all'analisi di sensitività, si andrà ad effettuare una procedura di ottimizzazione di tali parametri al fine di minimizzare una funzione costo rappresentante il grado di scarto tra modello e realtà. La struttura della tesi consta di tre capitoli: il primo rigurda una introduzione alle funzioni del rene e alle terapie dialitiche, il secondo rigurda gli strumenti e i metodi utilizzato in questo lavoro, mentre il terzo capitolo illustra i risultati ottenuti.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Nella seguente tesi sono stati affrontati differenti protocolli di purificazione di componenti della DNA polimerasi III di Escherichia coli, previamente sovraespressi nel microrganismo. A distanza di oltre 20 anni dall’identificazione della DNA polimerasi III quale enzima responsabile della replicazione del genoma di E. coli, sono stati fatti progressi riguardo la sua conoscenza. Tuttavia molti sono gli aspetti rimasti incogniti riguardo al meccanismo d’azione dell’enzima, così come il ruolo svolto dalle sue subunità e parte della loro struttura. Al fine di migliorare la comprensione di questo enzima, è necessario insistere sulla diffrattometria di raggi X, per la quale è indispensabile l’isolamento di cristalli delle proteine. Si intuisce la necessità di sviluppare metodi appropriati che consentano di ottenere una resa il più possibile elevata dei suoi componenti. Una metodica generale per la sovraespressione del core catalitico e della singola subunità α, deputata all’attività polimerasica a carico di entrambi i filamenti di DNA, era già stata perfezionata presso il laboratorio ospitante. Con il presente lavoro sono stati sperimentati alcuni procedimenti, volti ad aumentare la resa di purificazione, adottando differenti soluzioni. In primo luogo, si è cercato di recuperare le proteine contenute nel flow through eluito da una colonna cromatografica Q-Sepharose, alla quale non erano riuscite a legarsi durante il primo stadio di purificazione. Inoltre, sono stati sperimentati metodi alternativi di lisi cellulare di estrazione delle proteine. In sintesi, il contenuto della tesi potrebbe agevolare la valutazione di diverse strategie per incrementare la resa di purificazione della subunità α e del core polimerasico della DNA Polimerasi III di E. coli.
Resumo:
Viene analizzato il Cloud Computing, il suo utilizzo, i vari tipi di modelli di servizio. L'attenzione poi vira sul SLA (Service Level Agreement), contratti stipulati tra il provider e l'utente affinchè il servizio venga utilizzato al meglio e in modo sicuro rispettando le norme.Infine vengono analizzati la sicurezza, la privacy e l'accountability nel Cloud.
Resumo:
Il presente lavoro si compone di una parte iniziale in cui si introducono i principi alla base della teoria della Relatività Generale, e viene discussa la loro effettiva importanza come elementi fondanti del lavoro di Einstein. Nel capitolo 1 si sviluppano i principali concetti di geometria differenziale utili alla comprensione dei risultati ottenuti nei capitoli successivi. In particolare viene mostrato un risultato notevole che permette di ricavare gli integrali primi del moto geodetico a partire dalla dipendenza del tensore metrico dalle coordinate utilizzate. Vengono poi brevemente introdotte le Equazioni di campo di Einstein. Nel capitolo 2 Viene ricavata la soluzione di Schwarzschild e le quantità conservate nel moto in caduta libera verso una sorgente a simmetria sferica e statica. Viene poi definito il concetto di orizzonte degli eventi. Infine nel capitolo 3 viene introdotta la metrica di Kerr, e si suggerisce come questa possa essere indotta da una sorgente massiva rotante. Vengono analizzati gli integrali primi del moto di particelle in caduta libera e da questi viene ricavata l'espressione dell'effetto di trascinamento. Vengono poi introdotto il concetto di limite statico e la definizione di ergosfera, e viene ricavata l'espressione del raggio dell'orizzonte degli eventi.