134 resultados para Forecasting, teleriscaldamento, metodi previsionali, Weka
Resumo:
In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.
Resumo:
In questa tesi è stato affrontato un metodo sperimentale per la caratterizzazione elettromagnetica di un materiale plastico, ovvero l'acetato di cellulosa, fornito all'Università da una azienda della regione interessata ad un futuro impiego dell'acetato come materiale principale nelle "cover" di smartphone di ultima generazione. Il fine principale è quello di determinare le principali proprietà dielettriche del materiale, ovvero la permettività relativa o costante dielettrica e il fattore di dissipazione, o tangente di perdita, la cui conoscenza risulta il primo passo per per lo scopo iniziale dell'azienda. Il metodo impiegato fa uso di un risonatore in microstriscia a T, dato che il pattern della metallizzazione superiore assume questa forma. In questa tecnica avviene un confronto tra un prototipo reale di riferimento analizzato con VNA e un modello dello stesso risonatore realizzato all'interno del simulatore elettromagnetico CST, in particolare un confronto tra le frequenze di risonanza dei due casi, ricavate dall'andamento risonante dell'ampiezza di S21. I valori di permettività relativa e tangente di perdita vengono ricavati realizzando una moltitudine di simulazioni con CST fino a trovare il modello più simile al prototipo reale.
Resumo:
I metodi saddlepoint studiati nella tesi permettono di approssimare la densità di una variabile aleatoria a partire dalla funzione generatrice dei cumulanti (ricavabile dalla funzione caratteristica). Integrando la densità saddlepoint si ottiene la formula di Lugannani-Rice (e ulteriori generalizzazioni) per approssimare le probabilità di coda. Quest'ultima formula è stata poi applicata in ambito finanziario per il calcolo del prezzo di un'opzione call rispetto a vari modelli (Black-Scholes, Merton, CGMY)e in ambito assicurativo per calcolare la probabilità che il costo totale dei sinistri in una polizza non superi una certa quota fissata.
Resumo:
Il presente lavoro è uno studio sulle diverse proposte in letteratura per ovviare alle problematiche di interoperabilità tra piattaforme di virtualizzazione eterogenee, ovvero di diversi produttori. Al giorno d'oggi non sono stati definiti con successo degli standard opportuni per cui le soluzioni presentate sono molto diverse tra di loro. Lo scopo del lavoro è quello di analizzare le proposte e, in base ad uno studio approfondito, stabilire qual è quella migliore. Successivamente si vuole presentare il caso di studio di una piattaforma che si basa su uno strato virtuale che può essere eterogeneo. Si vuole evidenziare come nei sistemi complessi garantire interoperabilità comporta garantire anche una vasta serie di altri servizi necessari alla consistenza del sistema.
Resumo:
La tesi in oggetto propone un algoritmo che viene incontro alla necessità di segmentare in modo regolare immagini di nevi. Si è fatto uso di metodi level set region-based in una formulazione variazionale. Tale metodo ha permesso di ottenere una segmentazione precisa, adattabile a immagini di nevi con caratteristiche molto diverse ed in tempi computazionali molto bassi.
Resumo:
Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.
Resumo:
La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.
Resumo:
Nella tesi viene affrontato l'argomento della gestione delle risorse umane all'interno di un progetto. Vengono individuate le criticità e tramite un elenco di metodi e strumenti di gestione delle risorse umane si vuole indirizzare il project manager ad attivare quelli più inerenti alla risoluzione dei problemi che generalmente si presentano durante l'esecuzione di un progetto.
Resumo:
Il presente lavoro tratta la progettazione e caratterizzazione di una nuova "listening room" ad acustica controllata partendo dai requisiti dettati dalle norme tecniche ITU-R BS 1116-1 e EBU/UER Tech. doc. 3276. Ad oggi è presente un'ampia letteratura, che tratta approcci per valutazione acustica delle sale di ascolto. Essa inizialmente era volta a trovare proporzioni ideali tra le dimensioni della camera, poi la ricerca si è spostata sull'elaborazione di modelli previsionali. Purtroppo tali metodi spesso non riescono a garantire le prestazioni desiderate, mentre le prove sperimentali dettate dalle norme risultano essere di comprovata validità. L'ambiente oggetto di studio è stato progettato all'interno dello spazio dei laboratori CIRI. La tecnologia costruttiva è frutto di uno studio approfondito, in particolare la scelta di fibre di poliestere termolegate, per il rivestimento delle pareti interne, è stata valutata attraverso misure in camera riverberante secondo UNI-EN-ISO 354. Si è poi seguita una metodologia iterativa che coinvolgesse messa in opera, misurazioni in situ e valutazione tramite confronto con i parametri consigliati dalle normative tecniche sopra citate. In quest'ottica sono state effettuate acquisizioni di risposte all'impulso monoaurali e dei livelli di pressione sonora per verificare la qualità di isolamento e il comportamento alle basse frequenze. La validazione restituisce indicazioni positive per gli utilizzi dell'ambiente ipotizzati e risulta compatibile con le stringenti richieste delle norme tecniche.
Resumo:
Un problema classico in matematica, che presenta numerose applicazioni anche al di fuori di tale disciplina, è la ricerca delle radici di un polinomio. Per quanto riguarda i polinomi di grado minore o uguale a 4 ci sono delle formule per determinare le radici a partire dai coefficienti, mentre per il generico polinomio di grado maggiore o uguale a 5 formule simili non esistono. È possibile, però, determinare in modo approssimato le radici di un polinomio, o stimare il numero di radici reali di un polinomio reale in un dato intervallo, o ancora localizzare nel piano complesso gli zeri di un polinomio a coefficienti complessi.
Resumo:
In the last decade, the mechanical characterization of bone segments has been seen as a fundamental key to understanding how the distribution of physiological loads works on the bone in everyday life, and the resulting structural deformations. Therefore, characterization allows to obtain the main load directions and, consequently, to observe the structural lamellae of the bone disposal, in order to recreate a prosthesis using artificial materials that behave naturally. This thesis will expose a modular system which provides the mechanical characterization of bone in vitro segment, with particular attention to vertebrae, as the current object of study and research in the lab where I did my thesis work. The system will be able to acquire and process all the appropriately conditioned signals of interest for the test, through dedicated hardware and software architecture, with high speed and high reliability. The aim of my thesis is to create a system that can be used as a versatile tool for experimentation and innovation for future tests of the mechanical characterization of biological components, allowing a quantitative and qualitative assessment of the deformation in analysis, regardless of anatomical regions of interest.
Resumo:
Analisi dello sviluppo delle recenti metodologie di sequenziamento di acidi nucleici, con particolare attenzione a NGS e metodi high-throughput sequencing.
Resumo:
Review delle più recenti ed innovative tecniche di gestione dei prodotti ospedalieri nei punti di consumo. Sono stati analizzati tre metodi in particolare: il Just In Time, RFID e le confezioni monodose, valutando di ognuno gli aspetti positivi e negativi.