1000 resultados para Serie temporiali di dati, midpoint displacement, ricampionamento frattale
Resumo:
In questa trattazione è analizzato il tema della ventilazione negli ambienti indoor. Oggi questo argomento è di notevole interesse a causa di una serie di fattori molto importanti: - L’uomo trascorre la maggior parte del tempo in spazi chiusi - L’Organizzazione Mondiale della Sanità sottolinea come molte malattie, tra cui asma e allergie, derivino dall’eccesso di umidità interna e dalla presenza di muffe - Gli stili di vita lavorativi sono differenti rispetto al passato: non c’è più tempo per aprire adeguatamente le finestre - L’aria interna è da 10 a 100 volte più inquinata di quella esterna - Negli ambienti i materiali di arredo e i prodotti per la pulizia possono emettere sostanze nocive - L’infiltrazione dai serramenti, con la costruzione di edifici sempre più ermetici e a bassa permeabilità all’aria, risulta insufficiente per garantire un corretto ricambio - Le nuove leggi in materia di risparmio energetico impongono limiti sul fabbisogno energetico di riscaldamento, in parte dovuto ai processi di ventilazione. Vengono quindi analizzati i due sistemi di ventilazione possibili ad oggi in campo residenziale: la ventilazione naturale e la ventilazione meccanica controllata (VMC) applicati poi ad un edificio nel quartiere di Corticella (BO). Sono stati posti poi a confronto i due sistemi nel calcolo dei fabbisogni energetici per ventilazione e nelle relative incidenze rispetto al termine legato allo scambio termico per trasmissione. Viene proposta infine un'ipotesi di realizzazione di impianto di ventilazione meccanica integrato con una riqualificazione architettonica completa dell'edificio per il raggiungimento di elevate prestazioni energetiche.
Resumo:
Uno dei principali passi della catena di produzione di circuiti integrati è quello di testare e valutare una serie di chip campione per verificare che essi rientrino nei valori e nelle specifiche scelte. Si tratta di un passaggio molto importante che determina le caratteristiche del prodotto nella realtà, mostrando le proprie capacità o i propri limiti, permettendo così di valutare un’eventuale produzione su larga scala. Ci permette inoltre di stimare quali dei chip rispetto agli altri presi in esame è migliore in alcuni aspetti, oppure quale risulta più lontano dalle specifiche volute. Il lavoro alle spalle di questa tesi è proprio questo: si è cercato di caratterizzare un microchip chiamato Carbonio, nato nei laboratori della II Facoltà di Ingegneria di Cesena, creando un banco di misura automatico, tramite l’ausilio del software Labview e di una scheda hardware realizzata ad hoc, che desse la possibilità di eseguire alcuni test consecutivi su ogni singolo circuito integrato in modo da caratterizzarlo estrapolando tutte le informazioni cercate e verificandone il funzionamento. Tutti i valori estratti sono stati poi sottoposti a una breve analisi statistica per stabilire per esempio quale circuito integrato fosse meno immune ai disturbi dovuti al rumore elettrico oppure per eseguire un’indagine al fine di vedere come i valori dei parametri scelti si disponessero rispetto ai lori rispettivi valori medi.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
Il presente lavoro di tesi ha portato a caratterizzare e validare un modello bicompartimentale per la cinetica del sodio. Si discutono gli aspetti fondamentali del trattamento di dialisi e si evidenzia come un approccio modellistico possa essere seguito ai fini di una maggiore comprensione dei fenomeni non direttamente osservabili determinati dalla terapia e dell’adeguatezza dei parametri. La validazione del modello è stata effettuata su 144 sedute dialitiche in HD e HDF integrate con HC e su 7 sedute in HD e dai risultati si evince che il modello è in grado di riprodurre i dati sperimentali con un errore dello stesso ordine di grandezza dell’accuratezza degli strumenti utilizzati per la rilevazione della concentrazione plasmatica di sodio.
Resumo:
Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.
Resumo:
Numerose evidenze sperimentali hanno dimostrato il contributo delle cellule staminali (SC) di derivazione midollare nei processi di rigenerazione epatica dopo danno tissutale. E’ cresciuto pertanto l’interesse sul loro potenziale impiego in pazienti con cirrosi. Questo studio si proponeva di valutare la fattibilità e la sicurezza della reinfusione intraepatica di cellule staminali midollari autologhe CD133+ in 12 pazienti con insufficienza epatica terminale. Previa mobilizzazione nel sangue periferico mediante somministrazione di granulocyte-colony stimulating factor (G-CSF) alla dose di 7,5 mcg/Kg/b.i.d. e raccolta per leucoaferesi (solo se la concentrazione di CD133 + SC era > 8/μL), le cellule CD133+ altamente purificate sono state reinfuse in arteria epatica a partire da 5x104/Kg fino a 1x106/kg. Nei tre giorni successivi è stato somministrato G-CSF per favorire l’espansione e l’attecchimento delle cellule. Durante la fase della mobilizzazione e quella della reinfusione sono stati eseguiti saggi biologici quali: caratterizzazione fenotipica delle SC circolanti, saggi clonogenici, valutazione della concentrazione sierica del Hepatocyte Growth Factor (HGF), Stromal-Derived Factor-1 (SDF-1) ed il Vascular-Endotelial Growth Factor (VEGF) e caratterizzazione fenotipica delle CD133+SC purificate. Fino ad oggi sono stati reinfusi 12 pazienti. Questi dati preliminari suggeriscono che è possibile mobilizzare e reinfondere un numero considerevole di SC autologhe CD133+ altamente purificate in pazienti con ESLD . Gli studi biologici mostrano che: il numero di progenitori ematopoietici ed endoteliali circolanti è aumentato dopo il trattamento con G–CSF; le SCs CD133+ altamente purificato esprimono marcatori emopoietici ed endoteliali; la concentrazione sierica di HGF, SDF-1, VEGF e la capacità clonogenica di progenitori emopoietici sono aumentati durante la mobilitazione e nelle fasi di reinfusione; il potenziale clonogenico dei progenitori endoteliali mostra espressione variabile.
Resumo:
L'elaborato ha avuto come obiettivo l'analisi di vulnerabilità del liceo scientifico Sabin. Tramite le informazioni ricavate dai rilievi e dalla documentazione disponibile in merito allo stabile, è stato creato un modello agli elementi finiti per compiere una serie di analisi dinamiche lineari a spettro di risposta. Tali analisi sono servite per giungere ad una stima dell'accelerazione orizzontale al suolo di collasso per la struttura. Tale valore è stato poi messo a paragone con quello ottenuto tramite la metodologia speditiva denominata "resisto".
Resumo:
Dopo aver analizzato il conflitto, le sue funzioni e le modalità di gestione, l'autore si sofferma dapprima sulle varie tipologie di mediazione per poi focalizzare l'attenzione sulla mediazione civile e commerciale evidenziando i dati disponibili dall'entrata in vigore del tentativo obbligatorio come condizione di procedibilità della domanda giudiziale per le materie civili, alla fine del 2013.
Resumo:
Scopo della tesi è analizzare il modello di migrazione 'pre-copy' e convalidare il simulatore che lo implementa. Modificando opportunamente il codice e facendo delle prove di simulazione in diversi casi, si vogliono riprodurre i grafici che si ottengono applicando il metodo analitico per la migrazine di insiemi di macchine virtuali. Si cerca di fare chiarezza, attraverso un'analisi dettagliata delle varie opzioni, su come i vari parametri fondamentali del sistema influiscono, dal punto di vista quantitativo, sulle prestazioni del sistema stesso.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
La tesi di dottorato ha come oggetto di studio gli aspetti sostanziali della vendita giudiziale da un punto di vista comparatistico tra Spagna e Italia. Si tratta di un tema che non è stato analizzato profondamente dalle più recenti dottrine spagnola e italiana, che è caratterizzato da una notevole complessità tecnica visto il suo forte carattere interdisciplinare (in particolare, processuale-sostanziale) e la cui vigenza attuale è stata intensificata dalla grande quantità di processi di esecuzione che in questo periodo di instabilità economica sono una constante nei Tribunali spagnoli e italiani. Il fatto che costituisca un’istituzione giuridica inquadrata nell’ambito del processo di espropriazione forzata fa sì che questa possieda un accentuato carattere processuale e, infatti, è il legislatore processuale che si occupa per la maggior parte del suo regime giuridico. Tuttavia, al di là di questa sua natura evidentemente processuale, essa produce una serie di effetti sostanziali di enorme importanza, che sono proprio l’oggetto della tesi di dottorato, nello specifico ambito dei beni immobili (considerando la grande importanza economica e pratica dei diritti di questa natura nella nostra realtà socio-economica).
Resumo:
Funzioni di adattatività delle frizioni: Sono state ricercate ed individuate le cause dei diversi risultati delle adaption riscontrati tra costruttore cambi e Ferrari Torque Map (mappe pressione-slip-coppia): E’ stato realizzato uno strumento in grado di calcolare e simulare il funzionamento delle stesse a partire dalle misure a banco: esito positivo dei test in vettura con i nuovi dati Considerazioni sul processo di rodaggio delle frizioni: E’ stata valutata l’efficacia della nuova procedura in relazione a quanto fatto in precedenza in seguito alla bassa stabilità riscontrata nelle frizioni
Resumo:
Negli ultimi decenni, in varie parti del Mondo cosi come in Italia, si è assistito a un rapido aumento di strutture abitative, fabbricati ad uso industriale, residenziale e rurale. La continua sottrazione di terreno per tali scopi ha portato a un aumento di tutta una serie di problematiche ambientali. Con la diminuzione delle aree verdi si è andati incontro a una diminuzione della trattenuta idrica del terreno, all'aumento della velocità di scolo dell'acqua e del tempo di corrivazione con conseguenze sempre più drammatiche per le aree urbanizzate nei periodi di forti piogge. Inoltre, c'è da ricordare, che una diminuzione delle aree a verde comporta, oltre al cambiamento a livello paesaggistico, anche una diminuzione della capacità delle piante di trattenere le polveri inquinanti e di produrre ossigeno. Tutti questi fattori hanno portato allo studio di soluzioni tecnologiche che potessero unire i bisogni di verde della collettività con la necessità di una gestione sostenibile delle acque meteoriche. Tra esse, una che sta trovando notevole applicazione è la creazione di aree verdi sulla copertura degli edifici. Secondo le loro caratteristiche, queste aree verdi sono denominate tetti verdi e/o giardini pensili. La struttura si compone di strati di coltivazione e drenaggio con diversa profondità e una copertura vegetale. La vegetazione utilizzata può andare da specie con bassissime richieste manutentive (tipo estensivo) ad altre con maggiori necessità (tipo intensivo), come i tappeti erbosi. Lo scopo di questa tesi è stato quello di approntare una sperimentazione sul nuovo tetto verde realizzato presso la sede di Ingegneria, via Terracini 28, volta a stimare i costi economici e ambientali sostenuti per la realizzazione dello stesso, per poi confrontarli con i benefici ambientali legati al risparmio idrico ed energetico su scala edificio e urbana. Per la stima dei costi ambientali dei materiali utilizzati, dalla nascita al fine vita, si è utilizzato il metodo LCA- Life Cycle Assessment- e il software Sima Pro
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
Il presente lavoro di tesi ha avuto come oggetto l’analisi geochimica dei sedimenti superficiali della Pialassa Piomboni, area umida in comunicazione con il porto-canale Candiano, situata nel comune di Ravenna. Tale analisi si inserisce nell’ambito di un progetto di riqualificazione dell’area che prevede il dragaggio dei sedimenti superficiali. In particolare, è stato determinato il contenuto chimico totale degli elementi maggiori e in traccia tramite spettrometria a fluorescenza a raggi X (XRF). Sono stati individuati i principali fattori che determinano la distribuzione spaziale degli elementi nell’area di studio. Particolare interesse è stato attribuito allo studio dei metalli pesanti (As, Cr, Cu, Ni, Pb, Zn), per i quali si è voluto studiare se le concentrazioni riscontrate all’interno della Pialassa Piomboni sono dovute a variabilità naturale o ad attività antropiche. A tal fine, i valori di concentrazione ottenuti sono stati paragonati con quelli ricavati da studi precedenti condotti in sedimenti provenienti dallo stesso ambiente deposizionale di laguna; sulla base di questi dati è stato calcolato il valore di fondo naturale dei metalli pesanti. Le concentrazioni degli elementi nella Pialassa Piomboni sono state poi confrontate con le soglie di qualità chimica indicate dal manuale ICRAM per la movimentazione dei sedimenti marini (ICRAM-APAT, 2007).