546 resultados para reattore digestione anaerobica girante agitatore viscosità reometro moto vettore velocità
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
Lo streaming è una tecnica per trasferire contenuti multimediali sulla rete globale, utilizzato per esempio da servizi come YouTube e Netflix; dopo una breve attesa, durante la quale un buffer di sicurezza viene riempito, l'utente può usufruire del contenuto richiesto. Cisco e Sandvine, che con cadenza regolare pubblicano bollettini sullo stato di Internet, affermano che lo streaming video ha, e avrà sempre di più, un grande impatto sulla rete globale. Il buon design delle applicazioni di streaming riveste quindi un ruolo importante, sia per la soddisfazione degli utenti che per la stabilità dell'infrastruttura. HTTP Adaptive Streaming indica una famiglia di implementazioni volta a offrire la migliore qualità video possibile (in termini di bit rate) in funzione della bontà della connessione Internet dell'utente finale: il riproduttore multimediale può cambiare in ogni momento il bit rate, scegliendolo in un insieme predefinito, adattandosi alle condizioni della rete. Per ricavare informazioni sullo stato della connettività, due famiglie di metodi sono possibili: misurare la velocità di scaricamento dei precedenti trasferimenti (approccio rate-based), oppure, come recentemente proposto da Netflix, utilizzare l'occupazione del buffer come dato principale (buffer-based). In questo lavoro analizziamo algoritmi di adattamento delle due famiglie, con l'obiettivo di confrontarli su metriche riguardanti la soddisfazione degli utenti, l'utilizzo della rete e la competizione su un collo di bottiglia. I risultati dei nostri test non definiscono un chiaro vincitore, riconoscendo comunque la bontà della nuova proposta, ma evidenziando al contrario che gli algoritmi buffer-based non sempre riescono ad allocare in modo imparziale le risorse di rete.
Resumo:
L'attività di tesi è stata svolta presso la divisione System Ceramics della società System Group S.p.A. di Fiorano Modenese (MO) che si occupa dello sviluppo di soluzioni per l'industria ceramica, tra cui la decorazione delle piastrelle. Tipicamente nelle industrie ceramiche la movimentazione dei pezzi è effettuata tramite nastro trasportatore e durante il trasporto i pezzi possono subire leggeri movimenti. Se il pezzo non viene allineato alla stampante prima della fase di decorazione la stampa risulta disallineata e vi possono essere alcune zone non stampate lungo i bordi del pezzo. Perciò prima di procedere con la decorazione è fondamentale correggere il disallineamento. La soluzione più comune è installare delle guide all'ingresso del sistema di decorazione. Oltre a non consentire un’alta precisione, questa soluzione si dimostra inadatta nel caso la decorazione venga applicata in fasi successive da stampanti diverse. Il reparto di ricerca e sviluppo di System Ceramics ha quindi ideato una soluzione diversa e innovativa seguendo l'approccio inverso: allineare la grafica via software a ogni pezzo in base alla sua disposizione, invece che intervenire fisicamente modificandone la posizione. Il nuovo processo di stampa basato sull'allineamento software della grafica consiste nel ricavare inizialmente la disposizione di ogni piastrella utilizzando un sistema di visione artificiale posizionato sul nastro prima della stampante. Successivamente la grafica viene elaborata in base alla disposizione del pezzo ed applicata una volta che il pezzo arriva presso la zona di stampa. L'attività di tesi si è focalizzata sulla fase di rotazione della grafica ed è consistita nello studio e nell’ottimizzazione del prototipo di applicazione esistente al fine di ridurne i tempi di esecuzione. Il prototipo infatti, sebbene funzionante, ha un tempo di esecuzione così elevato da risultare incompatibile con la velocità di produzione adottata dalle industrie ceramiche.
Resumo:
In questa tesi presentiamo una strategia, e la relativa implementazione, per il problema dell’allocazione e schedulazione, su risorse unarie, di applicazioni multi-task periodiche, composte da attività che interagiscono fra loro e la cui durata è incerta. Lo scopo che ci si propone di raggiungere, è l’implementazione di una strategia di allocazione schedulazione che garantisca robustezza ed efficienza, in quei contesti in cui la conoscenza a priori è limitata e in cui le applicazioni si ripetono indefinitamente nel tempo. Per raggiungere questo scopo, sarà usato un approccio ibrido fra statico e dinamico. Staticamente è generata una soluzione del problema, sfruttando la programmazione a vincoli, in cui le durate delle attività sono arbitrariamente fissate. Questa soluzione, non rappresenta la soluzione del nostro problema, ma è utilizzata per generare un ordinamento delle attività, che compongono le applicazioni periodiche. Dinamicamente, sfruttando l’ordinamento ottenuto, è effettuata l’allocazione e la schedulazione effettiva delle applicazioni periodiche, considerando durate variabili per le attività. L’efficienza ottenuta applicando il nostro approccio è valutata effettuando test su una vasta gamma di istanze, sia industriali, sia sintetiche appositamente generate. I risultati sono confrontati con quelli ottenuti, per le stesse istanze, applicando un approccio puramente statico. Come si vedrà, in alcuni casi, è possibile anche quadruplicale la velocità di completamento delle applicazioni trattate.
Resumo:
La presente tesi analizza il comportamento tenuto dagli utenti nel percorrere intersezioni a T particolari, nelle quali la precedenza è associata alla corrente veicolare secondaria e non a quella principale. Sono state scelte due intersezioni ubicate all'interno del territorio comunale della provincia di Bologna e sono state svolte le riprese video di un campione significativo di utenti, a cui è seguito un calcolo delle velocità di attraversamento di ciascuna intersezione. L’intento è quello di individuare le caratteristiche che rendono la progettazione di un tratto stradale una buona progettazione, capace di garantire un livello appropriato di sicurezza e comfort per l’utente. Dall’analisi delle velocità, è emerso che gli utenti sottoposti ad una segnaletica chiara ed evidente prestavano un’attenzione molto maggiore rispetto a coloro che non hanno percepito le regole di precedenza a causa di una conformazione sbagliata dell’incrocio. I primi infatti hanno tenuto una velocità di attraversamento inferiore rispetto ai secondi, pur essendo in entrambi i casi veicoli provenienti da strada senza diritto di precedenza.
Resumo:
Tema di questo lavoro sono i cedimenti indotti dallo scavo di gallerie superficiali in terreni coesivi sotto falda. In questi casi la velocità di avanzamento dello scavo v e la permeabilità del mezzo k influenzano molto l'evoluzione della consolidazione. Le ipotesi di risposta non drenata o drenata del mezzo saturo, comunemente adottate, sono valide solo per rapporto v/k estremamente alto o basso. Nei casi intermedi, analisi numeriche accoppiate che tengano conto del processo di consolidazione durante lo scavo sono indispensabili. Ciò nonostante, queste sono molto rare in letteratura viste le notevoli difficoltà teoriche e numeriche ad esse associate. Proprio per non incrementare ulteriormente tali difficoltà, si è deciso di adottare modelli costitutivi semplici quali: il modello elastico perfettamente plastico con criterio di resistenza alla Mohr Coulomb e il Modified Cam Clay. Dopo un' introduzione sulla risposta del terreno nell'intorno dello scavo al variare del modello costitutivo, è stato svolto uno studio parametrico del processo di consolidazione. Ci si è, successivamente, concentrati sulla capacità dei tre modelli costitutivi di predire l'andamento dei cedimenti, mediante confronto con le soluzioni empiriche proposte in letteratura. Infine, sono state effettuate una serie di simulazioni 3D accoppiate passo-passo con il programma agli elementi finiti Abaqus al variare della permeabilità del mezzo e del rivestimento installato, supposto infinitamente permeabile o impermeabile. È emerso che per v/k<100 o v/k>100000 non è necessario esaminare nel dettaglio la dipendenza dal tempo della risposta del suolo e si possono ottenere risultati affidabili assumendo condizioni drenate o non drenate, rispettivamente. Nei casi intermedi, invece, le condizioni sono da ritenersi transienti e l'unico modo per effettuare correttamente le analisi dei cedimenti e lo studio della stabilità del fronte è mediante analisi numeriche 3D idromeccaniche accoppiate.
Resumo:
I transistor elettrochimici a base organica (OECT) hanno attratto sempre maggior interesse e sono oggetto di molti studi dagli anni '70 no ai nostri giorni. Questo lavoro di tesi ha come oggetto la realizzazione e la caratterizzazione di OECT a base di poli(3,4-etilen-diossi-tiofene) complessato con l'acido stirensolfonico (PSS). Questi dispositivi sono stati costruiti utilizzando solamente semiconduttori organici come materiali conduttivi ovvero senza l'uso di metalli, quindi risultano essere biocompatibili, economici e di semplice realizzazione. Questo tipo di sensori presenta un elevata sensibilità agli analiti e necessita di un'elettronica di controllo molto più semplice rispetto a metodi elettrochimici tradizionali che utilizzano un potenziostato ed un elettrodo di riferimento. Sono state studiate diverse geometrie e spessori di polimero depositato per ottimizzare le condizioni di lavoro per avere alta sensibilità e guadagno in corrente attraverso l'uso di misure di corrente di drain in funzione del tempo con aggiunte successive di analita. Questi dispositivi sono stati utilizzati come sensori di analiti quali la dopamina, l'acido ascorbico e l'acido urico. Attraverso scansioni in transcaratteristica, si è studiata la risposta dei transistor relativa agli analiti ed attraverso lo studio della transconduttanza si è ottenuta una nuova metodologia di lavoro in grado di separare i contributi relativi ai vari composti. Inoltre, in questa modalità, è stato possibile ottenere una selettività dei sensori ai vari analiti, problema principale dell'utilizzo di transistor elettrochimici, ed attraverso la modulazione della velocità di scansione dello strumento, è stata ottenuta una risposta alla sola dopamina, analita di maggior interesse per applicazioni biosensoristiche. In conclusione si può affermare che questo tipo di dispositivo possiede ottime proprietà e caratteristiche per ulteriori studi e sviluppi in applicazioni reali.
Resumo:
La tesi ha lo scopo di determinare una correlazione tra lo spostamento laterale e la riduzione di resistenza a trazione per le connessioni di tipo holdown per pareti in legno massiccio XLam. Per raggiungere questo obiettivo è stata condotta un’indagine sperimentale, nella quale sono state eseguite prove cicliche a trazione in controllo di spostamento assiale, con imposizione di uno spostamento a taglio iniziale. Sono state eseguite inoltre prove monotone combinate, caratterizzate da contemporaneo spostamento a taglio e assiale legati da rapporto diverso per ogni tipologia di prova. Si è ricavata una legge di danno che correla lo spostamento laterale alla riduzione di resistenza assiale: per scorrimenti entro 15 mm il danno è contenuto (10%), ma arrivando a 30-45mm la riduzione di resistenza è del 20%. Mettendo insieme invece le monotone ottenute variando il suddetto rapporto di velocità si è definito un dominio di resistenza. La seconda parte verte sulla modellazione numerica in OpenSEES delle connessioni come molle di un materiale isteretico, tarate sulla base delle curve sperimentali cicliche ottenute. Queste sono state poi utilizzate per la modellazione di una parete a molle disaccoppiate, che considera solo la resistenza a trazione per hold-down e a taglio per angolari (sottostima resistenza reale). Una seconda modellazione a molle accoppiate considera la resistenza in entrambe le direzioni: questo sovrastima la resistenza globale reale, poiché non tiene conto della contemporanea applicazione del carico nelle due direzioni. E’ stata quindi applicata la suddetta legge di danno attraverso un procedimento iterativo che in base agli spostamenti laterali riduce la resistenza assiale e riesegue l’analisi con i parametri corretti, per rivalutare spostamenti e resistenze: la progettazione attuale sovradimensiona gli angolari, il collasso della struttura avviene per rottura non bilanciata, con hold-down plasticizzati e angolari in campo elastico (meccanismo di rocking).
Resumo:
A fronte di un notevole incremento di funzionalità e strutture, nell'ambiente Web si sono intrapresi numerosi percorsi volti alla creazione di progetti che vanno a supportare il sovraccarico riversato sul lavoro che i linguaggi e i software sono tenuti a svolgere. Ad oggi il Javascript è uno dei linguaggi maggiormente utilizzati in ambito Web, e si rivela spesso essenziale al corretto sviluppo di applicazioni particolarmente evolute. Questo linguaggio, come è noto, sposta l’elaborazione del codice sul lato client, quindi sarà il Browser a supportare il carico di lavoro. Inoltre, è proprio quest’ultimo ad essere incaricato della gestione delle risorse computazionali locali, necessarie a tutte le operazioni di interpretazione del codice presente nelle pagine Web. Il crescente numero di connessioni da dispositivi mobili e la complessità dei siti Web, aumentano il rischio di avvicinarsi ad un punto critico relativo alla velocità e alle prestazioni dei Browser, in questa direzione sono stati realizzati progetti come asm.js piuttosto che Typescript in grado di velocizzare o incrementare le funzionalità e le prestazioni del linguaggio Javascript. Webassembly vuole integrare i vantaggi proposti da questi linguaggi tramite una meccanica di conversione dei file in formato binario, il quale essendo molto più leggero e veloce, consente una elaborazione molto più performante da parte dei Browser. Questo documento espone una panoramica sulle funzionalità e la progettazione di questo linguaggio, analizzando elementi lessicali e relativi vantaggi rispetto alle tecnologie diffuse fino ad ora. Il quadro generale di questa tesi ci prepara all’apertura di un nuovo scenario molto più ampio e diverso, sostenuto da un approccio al Web strutturalmente innovativo.
Resumo:
Il presente lavoro riguarda lo studio delle colate detritiche, fenomeno che rappresenta un importante argomento di studio sia per la sua caratterizzazione e analisi a livello scientifico che per attuare una corretta pianificazione e gestione del territorio. Nell’ambiente alpino, ed in particolare nell’area Dolomitica, le colate detritiche rappresentano un fenomeno complesso, le cui caratteristiche di velocità ed intensità, congiuntamente alla difficile previsione temporale, determinano l’alto grado di pericolosità che espone a rischi elevati infrastrutture e persone. Il monitoraggio delle colate detritiche assume quindi una notevole importanza nella determinazione delle condizioni idrologiche e morfologiche che inducono la generazione e la propagazione di tali fenomeni. Il presente lavoro ha come obiettivo la caratterizzazione della risposta idrologica nella zona d’innesco di un canale detritico, localizzato nella Conca Ampezzana. La caratterizzazione è stata definita attraverso l’analisi dei dati ottenuti dal monitoraggio eseguito mediante una stazione di rilevamento appositamente progettata e realizzata.
Resumo:
L’attività di studio affrontata in questa tesi di laurea nasce da una collaborazione di 11 mesi con l’ufficio tecnico della Aghito Zambonini S.p.A. di Fiorenzuola d’Arda, azienda specializzata nella progettazione e produzione delle facciate continue in vetro. Il primo capitolo analizza lo scenario energetico globale, in termini di consumi e fabbisogni mondiali, confrontandoli con quelli dell’UE e dello stato italiano. Nel capitolo seguente viene analizzato il sistema costruttivo delle facciate continue in vetro, dal punto di vista architettonico (classificazione, requisiti e prestazioni, materiali) e dal punto di vista fisico. Una sezione è stata dedicata all’approfondimento delle facciate a doppia pelle. Dopo una descrizione dei software di simulazione energetica, il caso studio viene analizzato attraverso una simulazione di tipo stazionario con il software WIS 3.0 e con una simulazione di tipo dinamico, tramite il software sperimentale ESP-r. Oltre al caso effettivamente realizzato (CASO A), sono state simulate in ESP-r altre quattro alternative, di cui una considerante una maggior superficie di ventilazione (CASO B), una con intercapedine completamente chiusa (CASO C), una con doppio vetro in facciata al posto del triplo (CASO D) e un’ultima alternativa considera un vetro maggiormente performante nella pelle esterna (CASO E). I risultati ottenuti, in termini di temperatura, velocità dell’aria nell’intercapedine, consumi e parametri soggettivi di comfort, possono essere assunti generalmente validi per un qualsiasi sistema a doppia pelle e mostrano che due casi tra quelli simulati sono peggiorativi (CASO C, CASO D) e due migliorativi (CASO B e CASO E) rispetto a quello effettivamente realizzato. Da questo studio si deduce l’importanza di parametri quali geometria, orientazione, ventilazione e proprietà dei materiali già nel corso della fase di progettazione di un involucro edilizio.
Resumo:
I sistemi di localizzazione, negli ultimi anni, sono stati oggetto di numerose ricerche a livello internazionale.Gli sviluppi più importanti hanno avuto inizio nell’ambito stradale con sistemi di navigazione e localizzazione, possibili grazie alle forti capacità del GPS.Infatti il GPS indica l’intero apparato che permette il funzionamento della maggior parte dei navigatori disponibili in commercio, che, però, non sono utilizzabili in ambito indoor, in quanto la ricezione del segnale proveniente dai satelliti GPS diventa scarsa o pressoché nulla. In questo senso, la localizzazione risulta rilevante nel caso di indoor positioning, ossia quando utenti hanno bisogno di conoscere la propria posizione e quella degli altri membri della squadra di soccorso all’interno di un edificio come, ad esempio, i vigili del fuoco durante un’operazione di salvataggio. Sono questi fattori che portano all’idea della creazione di un sistema di localizzazione indoor basato su smartphone o una qualsiasi altra piattaforma disponibile. Tra le diverse tecnologie e architetture legate al posizionamento indoor/outdoor e inerziale, con questa tesi, si vuole esporre la foot-mounted inertial navigation, un sistema che permette di conoscere la propria posizione, sia all’interno di edifici,sia in campi aperti, tramite l’utilizzo di una rete wireless o GPS e l’aiuto di sensori a basso costo.Tuttavia per conoscere la stima ottimale della posizione, della velocità e dell’orientamento corrente di un utente dotato di sensori sarà necessaria l’integrazione di diversi algoritmi, che permettono di modellare e stimare errori o di conoscere e predire la posizione futura dello stesso. Gli scopi principali di questo lavoro sono: 1)Tracciare i movimenti di un utente usando diversi sensori per ottenere una stima ottimale della posizione dello stesso; 2)Localizzare l’utente in 3 dimensioni con precisione; 3)Ottenere una transizione senza interruzioni per un posizionamento continuo tra aree indoor e outdoor;
Sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilità motore e cambio
Resumo:
Il presente progetto ha riguardato lo studio e lo sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilità motore cambio, dove con guidabilità si intende il legame intercorrente tra le richieste del conducente ed il reale comportamento del veicolo. La prima parte della tesi si è concentrata sullo studio delle calibrazioni motore e delle calibrazioni del cambio automatico attualmente sfruttate dai software di produzione, sviluppando un modello di simulazione in grado di verificare come queste calibrazioni influenzino il comportamento del veicolo, concentrandosi sugli andamenti delle accelerazioni e dei regimi motore risultanti. Dopo la validazione del modello, è stato creato uno strumento, in ambiente Matlab, che restituisce la calibrazione di guidabilità del cambio automatico, ovvero la mappa sfruttata dalla relativa centralina per gestire il cambio della marcia, ricevendo in ingresso le seguenti informazioni: le grandezze fisiche del veicolo nel suo complesso, quali la massa, i rapporti di trasmissione, il rapporto del differenziale, il raggio di rotolamento dinamico e tutte le inerzie dei componenti della driveline; le calibrazioni di guidabilità motore, costituite da otto mappe, una per ogni marcia, che definiscono la coppia motrice che si richiede al motore di erogare, in funzione della posizione del pedale acceleratore e del regime motore; il piano quotato del motore. Il codice, note queste informazioni, genera automaticamente la mappa di cambio marcia con le linee di Upshift (marcia innestata crescente) e Downshift (marcia innestata decrescente), in funzione della posizione del pedale e dei giri in uscita dal cambio. Infine, si è valutata una possibile strategia per la calibrazione delle otto mappe pedale con cui viene gestito il controllo motore. Si sono generate mappe a potenza costante in cui il pedale assume la funzione di regolatore di velocità.