134 resultados para Forecasting, teleriscaldamento, metodi previsionali, Weka
Resumo:
Perché la raccolta differenziata abbia ragion d’essere, essa deve essere portata a percentuali, rispetto al totale della raccolta rifiuti, ben più rilevanti di quelle che la media raggiunge allo stato dell’arte. Per raggiungere tale scopo sono fondamentali la sensibilizzazione dell’utente e l’introduzione di metodi di raccolta che favoriscano tale differenziazione dei rifiuti, possibilmente a monte della raccolta stessa. Una buona differenziazione più a monte possibile costituisce infatti un’indiscutibile vantaggio in termini di tempi e di costi. Tra i vari metodi possibili analizzerò in questo elaborato l’adozione di dispositivi a limitazione di conferimento: andando a limitare il volume conferibile della frazione non riciclata, si instrada l’utente verso una maggiore attenzione alla differenziazione del rifiuto a monte, tendendo a uniformare quindi la quantità delle varie frazioni di rifiuto prodotte, ed in particolare limitando quella delle non differenziate.
Resumo:
La tesi tratta dei protocolli di autenticazione a chiave privata, sia unilaterale che reciproca, e a chiave pubblica ed esamina brevemente il protocollo di Schnorr.
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.
Resumo:
La tesi è dedicata ai vari sistemi di lettura e scrittuta accessibili ai non vedenti a cominciare dall'uso del braille fino alle opportunità offerte dalle nuove tecnologie
Resumo:
Oggetto di questa tesi è lo studio di una rete di teleriscaldamento (TLR) preesistente, la rete di Corticella (Bo) ipotizzando la presenza di sottostazioni di scambio termico attive. Inizialmente sono state presentate le sottostazioni di scambio termico sia tradizionali che attive. Nelle tradizionali ci si è soffermato sul tipo di regolazione che può avvenire. Per quanto riguarda le sottostazioni di scambio termico attive son stati esaminati i 4 layout che permettono uno scambio termico bidirezionale di energia termica. E’ stato presentato il software IHENA (intelligent Heat Energy Network Analysis) creato dal dipartimento di ingegneria industriale, che ha permesso di effettuare le simulazioni sulla rete analizzata. Viene mostrato l’algoritmo di Todini-Pilati generalizzato dall’utilizzo delle equazioni di Darcy-Weisbach su cui si basa il motore di calcolo. Inoltre vengono presentati i vari input che è necessario inserire per ottenere il calcolo della rete. Dopo nozioni di base relative al teleriscaldamento attivo e la presentazione del software utilizzato si è passati alla vera e propria analisi della rete di teleriscaldamento. Sono state effettuate varie simulazioni per vedere l’andamento della rete di Corticella sia considerandola passiva (come nella realtà) che ipotizzandola attiva tramite l’inserimento di sottostazioni di scambio termico ative. Le analisi condotte riguardano i seguenti punti. a) E’ stata presentata la rete di Corticella cosi come è andando a studiare quindi il caso base. b) Sono state svolte delle analisi per vedere come si comportava la rete nel caso in cui venivano variati dei parametri operativi come i carichi termici richiesti dalle utenze. c) Sono stati valutati i percorsi più critici. d) Si è condotta un analisi sulla regolazione al variare delle temperature esterne. Dopo l'analisi del caso base sono state introdotte delle sottostazioni di scambio termico attive, prima solo una, e poi varie lungo determinati percorsi. Le valutazioni effettuate mettevano in primo piano gli andamenti della temperatura nei percorsi, la potenza termica generata dalla sorgente, la temperatura di ritorno in centrale e se si verificano delle problematiche sugli scambiatori di calore. In queste simulazioni sono stati valutati tutti e quattro gli schemi utilizzabili. Infine è stata effettuata un analisi comparativa tra le varie soluzioni studiate per poter mettere a confronto i casi. In particolare anche qui si sono voluti confrontare i valori di potenza spesa per il pompaggio, temperatura di ritorno in centrale e potenza termica offerta dalla sorgente.
Resumo:
La tesi tratta il tema dell'impatto ambientale della logistica distributiva della filiera globale dell'olio alimentare. Sono presentati i tratti salienti del mercato dell'olio: produttori, consumatori e packaging per l'olio. Si affronta il concetto di Green Logistics e le categorie chimiche inquinanti per la valutazione dell'impatto ambientale della filiera. Il caso analizzato riguarda la logistica di un'azienda italiana produttrice e distributrice di olio. Sono presentati e simulati degli scenari alternativi all'organizzazione logistica distributiva di tale azienda per eventuali migliorie maggiormente ecosostenibili.
Resumo:
Nel corso del tempo, nell’ambito dell’idrogeologia sono state sviluppate diverse tecniche per la determinazione conducibilità idraulica (K). Negli ultimi decenni sempre maggiori sforzi sono stati compiuti per integrare le tecniche geofisiche a questo specifico settore di ricerca; in particolare le metodologie geoelettriche sono state fonte di molteplici studi per la determinazione indiretta di K. Su questa idea è stato impostato il lavoro presentato in questo elaborato di tesi. Ciò che questo propone è infatti l’esecuzione di test in campo che prevedono il monitoraggio time lapse con tecnologia ERT (Electrical Resistivity Tomography) di un tracciante salino iniettato nel terreno. Il fine ultimo è quello di poter sviluppare una tecnica indiretta per la stima della conducibilità idraulica verticale dei terreni sciolti. Le immagini tomografiche, realizzate in sequenza nel tempo, premettono la visualizzazione l’avanzamento del plume basso resistivo in movimento nel terreno (causato dalla salamoia iniettata). Un successivo confronto grafico fra queste permette di quantificare lo spostamento nel tempo, in modo da calcolare in seguito la velocità di infiltrazione del tracciante, e in ultimo stimare la K del terreno in analisi. I risultati ottenuti con tale metodologia sperimentale, opportunamente elaborati tramite specifici software, sono stati confrontati, dove possibile, con i valori forniti dall’impiego di altre tecniche più tradizionali, in modo da poter valutare la bontà del dato ottenuto. Le aree studio individuate per condurre tali sperimentazioni ricadono all’interno del territorio regionale del Friuli Venezia Giulia, in particolare nell’area di Alta e Bassa pianura friulana. La strumentazione (resistivimetro multicanale VHR X612-EM della MAE-Molisana Apparecchiature Elettroniche) e il software (Res2dinv) per la raccolta e l’elaborazione delle immagini tomografiche sono stati gentilmente messi a disposizione dalla società Geomok s.r.l. del Dott. Geol. Mocchiutti (Udine) con la cui collaborazione è stato realizzato questo elaborato di tesi.
Resumo:
Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.
Esperienza di creazione di entrate lessicografiche combinatorie: metodi e dati dal progetto CombiNet
Resumo:
The present dissertation aims at simulating the construction of lexicographic layouts for an Italian combinatory dictionary based on real linguistic data, extracted from corpora by using computational methods. This work is based on the assumption that the intuition of the native speaker, or the lexicographer, who manually extracts and classifies all the relevant data, are not adequate to provide sufficient information on the meaning and use of words. Therefore, a study of the real use of language is required and this is particularly true for dictionaries that collect the combinatory behaviour of words, where the task of the lexicographer is to identify typical combinations where a word occurs. This study is conducted in the framework of the CombiNet project aimed at studying Italian Word Combinationsand and at building an online, corpus-based combinatory lexicographic resource for the Italian language. This work is divided into three chapters. Chapter 1 describes the criteria considered for the classification of word combinations according to the work of Ježek (2011). Chapter 1 also contains a brief comparison between the most important Italian combinatory dictionaries and the BBI Dictionary of Word Combinations in order to describe how word combinations are considered in these lexicographic resources. Chapter 2 describes the main computational methods used for the extraction of word combinations from corpora, taking into account the advantages and disadvantages of the two methods. Chapter 3 mainly focuses on the practical word carried out in the framework of the CombiNet project, with reference to the tools and resources used (EXTra, LexIt and "La Repubblica" corpus). Finally, the data extracted and the lexicographic layout of the lemmas to be included in the combinatory dictionary are commented, namely the words "acqua" (water), "braccio" (arm) and "colpo" (blow, shot, stroke).
Resumo:
The revision hip arthroplasty is a surgical procedure, consisting in the reconstruction of the hip joint through the replacement of the damaged hip prosthesis. Several factors may give raise to the failure of the artificial device: aseptic loosening, infection and dislocation represent the principal causes of failure worldwide. The main effect is the raise of bone defects in the region closest to the prosthesis that weaken the bone structure for the biological fixation of the new artificial hip. For this reason bone reconstruction is necessary before the surgical revision operation. This work is born by the necessity to test the effects of bone reconstruction due to particular bone defects in the acetabulum, after the hip prosthesis revision. In order to perform biomechanical in vitro tests on hip prosthesis implanted in human pelvis or hemipelvis a practical definition of a reference frame for these kind of bone specimens is required. The aim of the current study is to create a repeatable protocol to align hemipelvic samples in the testing machine, that relies on a reference system based on anatomical landmarks on the human pelvis. In chapter 1 a general overview of the human pelvic bone is presented: anatomy, bone structure, loads and the principal devices for hip joint replacement. The purpose of chapters 2 is to identify the most common causes of the revision hip arthroplasty, analysing data from the most reliable orthopaedic registries in the world. Chapter 3 presents an overview of the most used classifications for acetabular bone defects and fractures and the most common techniques for acetabular and bone reconstruction. After a critical review of the scientific literature about reference frames for human pelvis, in chapter 4, the definition of a new reference frame is proposed. Based on this reference frame, the alignment protocol for the human hemipelvis is presented as well as the statistical analysis that confirm the good repeatability of the method.
Resumo:
Nel presente elaborato vengono approfonditi i principali metodi di posizionamento attualmente utilizzati, ossia il GPS e il GPS differenziale, con particolare riferimento a strutture posizionate in mare. Gli stessi sono utilizzati per il monitoraggio della subsidenza e dei movimenti tettonici cui le strutture offshore sono soggette, che, essendo movimenti dell’ordine di qualche millimetro all'anno, richiedono accuratezza nelle misure. Nell'ultima parte della tesi si è provveduto ad analizzare una serie di dati, derivanti da rilevamenti GPS, al fine di valutare gli effetti termici sulla struttura emersa di una piattaforma offshore.
Resumo:
I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.
Resumo:
Negli ultimi anni si è assistito al considerevole aumento della disponibilità di dati GPS e della loro precisione, dovuto alla diffusione e all’evoluzione tecnologica di smartphone e di applicazioni di localizzazione. Il processo di map-matching consiste nell’integrare tali dati - solitamente una lista ordinata di punti, identificati tramite coordinate geografiche ricavate mediante un sistema di localizzazione, come il GPS - con le reti disponibili; nell’ambito dell’ingegneria dei trasporti, l’obiettivo è di identificare il percorso realmente scelto dall’utente per lo spostamento. Il presente lavoro si propone l’obiettivo di studiare alcune metodologie di map-matching per l’identificazione degli itinerari degli utenti, in particolare della mobilità ciclabile. Nel primo capitolo è esposto il funzionamento dei sistemi di posizionamento e in particolare del sistema GPS: ne sono discusse le caratteristiche, la suddivisione nei vari segmenti, gli errori di misurazione e la cartografia di riferimento. Nel secondo capitolo sono presentati i vari aspetti del procedimento di map-matching, le sue principali applicazioni e alcune possibili classificazioni degli algoritmi di map-matching sviluppati in letteratura. Nel terzo capitolo è esposto lo studio eseguito su diversi algoritmi di map-matching, che sono stati testati su un database di spostamenti di ciclisti nell’area urbana di Bologna, registrati tramite i loro smartphone sotto forma di punti GPS, e sulla relativa rete. Si analizzano altresì i risultati ottenuti in un secondo ambiente di testing, predisposto nell’area urbana di Catania, dove sono state registrate in modo analogo alcune tracce di prova, e utilizzata la relativa rete. La comparazione degli algoritmi è eseguita graficamente e attraverso degli indicatori. Vengono inoltre proposti e valutati due algoritmi che forniscono un aggiornamento di quelli analizzati, al fine di migliorarne le prestazioni in termini di accuratezza dei risultati e di costo computazionale.
Resumo:
Le peculiarità del contesto competitivo attuale richiedono alle aziende di muoversi con la massima velocità per rispondere il più rapidamente possibile al soddisfacimento delle richieste dei clienti. La ricerca di massima flessibilità non può prescindere dall’esigenza di mantenere alti livelli di efficienza produttiva e di tendere ad un continuo miglioramento dei flussi interni. L’elaborato ripercorre i passaggi fondamentali di un progetto di miglioramento delle performance di un impianto svolto nel primo semestre 2016 presso Philip Morris Manufacturing & Technology Bologna S.p.A. La metodologia utilizzata riprende strumenti, modelli e metodi dai principi alla base del Focus Improvement, primo pilastro del tempio della Total Productive Maintenance. Attraverso l’applicazione sistematica di tecniche tipiche del problem solving (ciclo di Deming) e di approcci analitici per la determinazione delle cause di guasto (curva di Pareto, Diagramma di Ishikawa), è stato possibile identificare i principali tipi di perdite (tempo, performance, difetti qualitativi) di una macchina industriale e mettere in atto gli interventi migliorativi necessari. L’analisi si conclude con la valutazione dei futuri sviluppi dello scenario, proponendo diverse alternative a seconda dell’abilità dell’organizzazione di sostenere i risultati raggiunti o addirittura di superarli.