958 resultados para Conto, Oralidade e Fábula
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
La tesi riguarda l'analisi della vulnerabilità sismica degli aggregati edilizi del centro storico di Pergola, condotta in termini di valutazione analitica e speditiva. Il metodo di analisi si basa sulla proposta di A.Giuffrè per la definizione dei possibili meccanismi di danno associati all'azione sismica. Oltre alla definizione degli indici globali di vulnerabilità sismica si propongono metodi per tenere conto, nel metodo, del contributo dell'indice di qualità muraria, al fine di poter confrontare realtà geo-materiali anche molto differenti.
Resumo:
La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.
Resumo:
Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.
Resumo:
Nel dibattito riguardante la valorizzazione delle aree archeologiche il ruolo della museografia quale disciplina capace di conciliare saperi come quello archeologico e quello architettonico,e ancora, tra la cultura conservativa e quella progettuale. All' interno del laboratorio di laurea è stato sviluppato un progetto per il sito archeologico della città romana di Suasa che oltre a tenere conto delle tematiche generali attinenti alle più recenti posizioni della disciplina architettonica e museografica in rapporto all’archeologia, dia delle risposte progettuali calate all’interno di un preciso contesto culturale e territoriale. I nuovi manufatti devono sapersi relazionare ai caratteri del luogo in cui si collocano, aree poste in contesti esterni in una dimensione paesaggistica e culturale complessa e stratificata. Luogo e paesaggio costituiscono quindi i termini generali di un’indagine che assume il valore di una ricerca progressiva finalizzata alla conoscenza decisiva per la progettazione, di realtà fortemente caratterizzate dalla dimensione archeologica paesaggistica.
Outdoor e indoor: Abitare il comfort. Strategie di riqualificazione del quartiere Pilastro a Bologna
Resumo:
Il caso studio affrontato nella tesi è il complesso residenziale Pilastro, costruito tra gli anni 1962 e 1985 a Bologna. Collocato nella parte nord-est della città, all’interno del quartiere San Donato, il quartiere si presenta come una delle periferie più adatte ad ospitare i nuovi progetti di sviluppo urbano, in virtù della sua posizione strategica rispetto ai diversi poli e alla rete infrastrutturale principale. Questo studio consiste in una serie di analisi, effettuate al fine di giungere a trattare gli aspetti progettuali, che rispondono a una serie di problematiche riscontrate nella parte conosciuta come “Primo Impianto”. Le criticità affrontate sono: - Fenomeno di Canyon Urbano dovuto al rapporto tra la morfologia urbana e il microclima; - Limiti nella fruibilità degli spazi esterni (outdoor), a causa della presenza di spazi non caratterizzati, dotati di uno scarso livello di comfort termico durante il periodo estivo; - Problemi riguardo l’aspetto viabilistico e le sezioni stradali; - Bassa prestazione energetica correlata alla vetustà degli edifici; - Basso livello di comfort interno (indoor) degli edifici. La Tesi ha come obiettivo la definizione di diverse strategie progettuali che tengano conto delle condizioni climatiche relative al benessere termico come criterio per la riqualificazione degli spazi esterni e degli edifici esistenti. Quest’ultima terrà altresì conto della prestazione energetica dei fabbricati. Un aspetto complementare è quello del ragionamento sull’incidenza della progettazione degli spazi esterni (outdoor) sugli aspetti relativi al benessere negli spazi interni (indoor). Metodo L’approccio seguito nel trattare le problematiche ha come punto di partenza lo studio degli spazi esterni, che continua anche al livello del costruito. Attraverso diverse analisi a livello urbanistico, sono stati indagati una serie di aspetti come la morfologia urbana, i servizi, gli spazi aperti, la popolazione e la mobilità, etc. Il comparto studio, collocato nella parte nord-est del Primo Impianto in Via Lodovico Frati, è composto da edifici residenziali in linea e lo spazio “in between” che si affaccia alla strada. Al fine di considerare le condizioni climatiche e la loro incidenza nel comfort urbano, sono stati studiati diversi parametri fisici incidenti, valutati con l’ausilio del software di simulazione Envi-met, con l’output di cui, è stato possibile ottenere mappe di valori del comfort outdoor, sia della condizione esistente che in quella dopo l’intervento progettuale. Per quanto riguarda gli edifici, per valutare il livello di comfort negli ambienti interni è stato usato il software di simulazione EnergyPlus, mentre per valutare la prestazione energetica è stato usato il software Termolog Epix 5. L’output dei risultati ottenuti dai software di simulazione è uno strumento importante di verifica per le diverse scelte progettuali.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
Scopo della modellizzazione delle stringhe di DNA è la formulazione di modelli matematici che generano sequenze di basi azotate compatibili con il genoma esistente. In questa tesi si prendono in esame quei modelli matematici che conservano un'importante proprietà, scoperta nel 1952 dal biochimico Erwin Chargaff, chiamata oggi "seconda regola di Chargaff". I modelli matematici che tengono conto delle simmetrie di Chargaff si dividono principalmente in due filoni: uno la ritiene un risultato dell'evoluzione sul genoma, mentre l'altro la ipotizza peculiare di un genoma primitivo e non intaccata dalle modifiche apportate dall'evoluzione. Questa tesi si propone di analizzare un modello del secondo tipo. In particolare ci siamo ispirati al modello definito da da Sobottka e Hart. Dopo un'analisi critica e lo studio del lavoro degli autori, abbiamo esteso il modello ad un più ampio insieme di casi. Abbiamo utilizzato processi stocastici come Bernoulli-scheme e catene di Markov per costruire una possibile generalizzazione della struttura proposta nell'articolo, analizzando le condizioni che implicano la validità della regola di Chargaff. I modelli esaminati sono costituiti da semplici processi stazionari o concatenazioni di processi stazionari. Nel primo capitolo vengono introdotte alcune nozioni di biologia. Nel secondo si fa una descrizione critica e prospettica del modello proposto da Sobottka e Hart, introducendo le definizioni formali per il caso generale presentato nel terzo capitolo, dove si sviluppa l'apparato teorico del modello generale.
Resumo:
Abstract Il presente lavoro si propone di tracciare un breve excursus circa il potere del linguaggio partendo dalle origini della retorica, disciplina che, ancora oggi condiziona l’organizzazione del discorso. Il concetto di norma ed infrazione sarà esplorato nei paragrafi che compongono questa tesi tenendo conto dei vari processi storici che hanno in qualche modo influenzato l’evoluzione del linguaggio. Dopo aver delineato una breve presentazione sulle origini della retorica il discorso si sposta in ambito filosofico dedicando ampio spazio alla dialettica aristotelica, per poi incentrarsi su due diversi esempi di uso dell’ars oratoria applicati a scritti di epoca romana. Il secondo, invece, si focalizza su due aspetti in realtà molto simili tra di loro; la censura imposta dalla Chiesa sin dal XVI secolo come mezzo per ostacolare il grado di conoscenza a quell’epoca accessibile al popolo, e la conseguente manipolazione delle masse. Il terzo paragrafo può essere considerato di raccordo in quanto espone la ricerca millenaria, da parte dell’uomo, della perfezione, canone che nel corso dei secoli ha mutato caratteristiche. Infine, l’ultimo paragrafo presenta un’analisi approfondita delle opere di due autori che con i loro ideali innovativi hanno influenzato tutta la letteratura del XX secolo.
Resumo:
Questo elaborato nasce da un interesse personale, quello per il romanzo Educazione Siberiana e per l'autore Nicolai Lilin. Da qui è nata un'idea di analisi del romanzo da un punto di vista culturale e traduttologico, nonostante l'opera sia scritta in italiano. Il titolo dell'elaborato descrive la traduzione come lettura ideale: il traduttore, come figura che si pone tra due lingue e due culture, rappresenta infatti il lettore ideale di un'opera tradotta, poiché ha a disposizione le conoscenze della cultura di partenza e di quella di arrivo. Per questo motivo, è attraverso il suo lavoro che tale opera può essere trasmessa ad un lettore medio. Il lettore medio potenzialmente può non conoscere nulla della lingua e della cultura originaria. Come "russista" e studentessa di traduzione, madrelingua italiana, mi sono posta nella posizione di lettrice ideale, che dispone di un bagaglio culturale che va oltre la cultura che si acquisisce in base alle proprie origini. L'obiettivo di questa tesi è perciò quello di effettuare una rilettura del romanzo attraverso i realia, cioè termini e concetti che fanno riferimento ad aspetti propri di una cultura, in questo caso quella russa, per i quali spesso non esiste una traduzione ufficiale e che prevedono, da parte del traduttore, una grande conoscenza della cultura di partenza. Tuttavia mentre il lettore medio critica la veridicità dei racconti crudi e spesso violenti presenti nel romanzo, il traduttore-lettore ideale si rende conto di come alcuni realia della cultura russa siano stati riportati in maniera imprecisa nella lingua italiana. Si analizzeranno quindi i realia trattati in maniera imprecisa, i realia che funzionano e i linguaggi culturali dell'opera a partire dall'articolo di presentazione del romanzo e la sua trasposizione cinematografica.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
Le azioni che un robot dovrà intraprendere per riuscire a portare a termine un determinato task non sono sempre note a priori. In situazioni dove l’ambiente in cui il robot si muove e con cui interagisce risulta impredicibile, variabile o persino ignoto, diventa pressocché impossibile progettare un algoritmo universale, che tenga conto di tutte le possibili variabili, avvalendosi dei metodi classici di programmazione e design. La Robotica Evolutiva (ER) è una branca della Computazione Evolutiva (EC) che si occupa di risolvere questo problema avvalendosi di specifici Algoritmi Evolutivi (EA) applicati alla robotica. Gli utilizzi della Robotica Evolutiva sono molteplici e spaziano dalla ricerca di soluzioni per problemi/task complessi allo studio e alla riproduzione di fenomeni fisiologici e biologici per riuscire a comprendere (o ipotizzare) l’evoluzione di alcuni tratti genetici presenti nel genere animale/umano. Lo scopo di questo elaborato è di predisporre una base, una visione generale per chiunque voglia intraprendere studi approfonditi nella Robotica Evolutiva, esaminando lo stato attuale delle sperimentazioni, gli obiettivi raggiunti e le sfide che ogni ricercatore di ER deve affrontare ogni giorno per riuscire portare questo campo di studi nel mondo reale, fuori dall’ambiente simulato e ideale.
Resumo:
Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
Uno dei comparti industriali più importanti nel mondo è senz’altro il settore automobilistico, il quale è oggetto di particolare attenzione da parte dei governi mondiali. Infatti l’automobile è il mezzo sia urbano che extraurbano che è stato perfezionato nel tempo in base alle esigenze dell’uomo, ma bisogna anche evidenziare che in generale il settore dei trasporti è un settore industriale che negli anni non ha portato grandi innovazioni, in quanto presenta ancora la stessa tecnologia di trent’anni fa. Attualmente, grazie alle nuove normative Europee riguardanti la tutela dell’ambiente e le riduzioni di emissioni, si sta passando a nuove forme di alimentazione per ridurre le emissioni di CO2 ed evitare di utilizzare i combustibili fossili. Una valida soluzione è stata attuata attraverso i veicoli completamente elettrici (EV), dato il rendimento energetico nettamente superiore e l’assente emissione di gas inquinanti. Purtroppo gli utenti hanno ancora timore ad utilizzare i veicoli elettrici (EV): ciò avviene soprattutto per mancanza/scarsità di infrastrutture e servizi a supporto degli utenti, provocando nell’utente un’insicurezza che viene più comunemente chiamata “range anxiety” (timore che il EV non abbia autonomia sufficiente per arrivare a destinazione) e generando l’infondata idea che i EV siano utilizzabili solo in città o per i tragitti brevi. In questo documento è proposta un’applicazione la quale sarà in grado di ridurre i problemi relativi a “Driving without anxiety”. In particolare tale applicazione è in grado di rilevare la velocità media e l’accelerazione sul tratto di strada che si sta percorrendo. Attraverso il servizio di Google Direction si richiede la velocità media stimata sul medesimo tratto. L’applicazione confronta il valore reale ed il valore medio stimato, ed in base a quello fornisce una classificazione dello stile di guida dell’utente (es. Aggressivo); fornisce una stima dell’energia consumata sul tratto percorso, inserendo nel calcolo dell’energia un parametro che consente di tener conto dello stile di guida, determinato al passo precedente.