911 resultados para Motori a combustione interna, Simulazione, Metodo delle caratteristiche, Sovralimentazione
Resumo:
Combustion control is one of the key factors to obtain better performances and lower pollutant emissions for diesel, spark ignition and HCCI engines. An algorithm that allows estimating, as an example, the mean indicated torque for each cylinder, could be easily used in control strategies, in order to carry out cylinders trade-off, control the cycle to cycle variation, or detect misfires. A tool that allows evaluating the 50% of Mass Fraction Burned (MFB50), or the net Cumulative Heat Release (CHRNET), or the ROHR peak value (Rate of Heat Release), could be used to optimize spark advance or to detect knock in gasoline engines and to optimize injection pattern in diesel engines. Modern management systems are based on the control of the mean indicated torque produced by the engine: they need a real or virtual sensor in order to compare the measured value with the target one. Many studies have been performed in order to obtain an accurate and reliable over time torque estimation. The aim of this PhD activity was to develop two different algorithms: the first one is based on the instantaneous engine speed fluctuations measurement. The speed signal is picked up directly from the sensor facing the toothed wheel mounted on the engine for other control purposes. The engine speed fluctuation amplitudes depend on the combustion and on the amount of torque delivered by each cylinder. The second algorithm processes in-cylinder pressure signals in the angular domain. In this case a crankshaft encoder is not necessary, because the angular reference can be obtained using a standard sensor wheel. The results obtained with these two methodologies are compared in order to evaluate which one is suitable for on board applications, depending on the accuracy required.
Resumo:
Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.
Resumo:
Studio del funzionamento in off - design dei due motori a combustione interna alimentati ad olio vegetale presenti all'interno dell'impianto cogenerativo a biomassa.
Resumo:
L’oggetto di questa tesi è l’individuazione di un metodo in grado di rilevare uno squilibrio cilindrico rilevante in un motore a combustione interna ad accensione comandata, sovralimentato dinamicamente. Il progetto si basa sull’osservazione sperimentale di un forte incremento dei valori assunti da indici basati sulla differenza dei tempi dente della ruota fonica, al manifestarsi di un brusco squilibrio di titolo in uno dei quattro cilindri. Ciò ha permesso di rilevare eventuali sbilanciamenti di titolo mediante una diagnosi intrusiva in grado di esaltarli. Questa metodologia a differenza di quelle basate sul segnale proveniente dalla sonda lambda, non risente del problema del mixing dei pacchetti di gas combusti all’interno della turbina. Il lavoro di tesi è consistito nel concepire un indice di rilevamento capace di esaltare il fenomeno sopra descritto, nel creare in ambiente Matlab-Simulink un modello che simuli la strategia in questione e renda possibile la realizzazione di un prototipo, per mezzo del quale è stata validata la strategia a bordo del veicolo. This thesis proposes a methodology to detect a relevant cylinder imbalance by means of flywheel speed fluctuation analysis in a turbocharged internal combustion engine. The main idea behind this project is the evidence that every time a significant cylinder imbalance is present, it is noticed an important increase of index based on tooth time sampled via flywheel. For this reason, it is possible to develop an intrusive strategy, which higliaghts a possible cylinder imbalance presence, in order to detect it. This method, unlike others based on the signal coming from Lambda sensor, doesn’t suffer from the presence of exhaust gases mixing effect inside the turbine. The objective of this thesis is to conceive a detection index able to put in evidence the phenomena described above, and to design a model inside the Matlab-Simulink environment, able to simulate the strategy and to make possible tests on the vehicle by means of a prototype.
Resumo:
The trend of CO2 emission limit and fuel saving due to the oil price increase and are important drivers for engines development. The engine auxiliary devices electrification (g.e fuel pump) is a way to reduce the energy consumption, because it becomes possible to control them depending on engine operation point, this kid of management can be applied to the electric low-pressure pump. Usually the fuel delivery is performed at the maximum flow rate and a pressure regulator discharges the exceeding fuel amount inside the rail (gasoline engine) or upstream of the high pressure pump (common rail diesel engine). In this work it has been investigated the fuel saving achievable through a proper control of the electric fuel pump on a small common rail diesel engine, and a control architecture is proposed. The aim was to maximize the fuel economy without any impact on pressure control in the engine transient conditions. L'andamento del limite di emissioni di CO2 e il risparmio di carburante dovuto all'aumento del prezzo del petrolio sono fattori importanti per lo sviluppo dei motori. I dispositivi ausiliari, come la pompa del carburante, sono un modo per ridurre il consumo energetico, in quanto diventa possibile controllarli a seconda del punto di funzionamento del motore, questo tipo di gestione può essere applicato alla pompa elettrica a bassa pressione. Solitamente la portata del combustibile viene eseguita alla portata massima e un regolatore di pressione si scarica la quantità eccedente di carburante all'interno del rail (motore a benzina) o a monte della pompa a alta pressione (common rail motore diesel). In questo lavoro è stato studiato il risparmio di combustibile ottenibile attraverso un adeguato controllo della pompa elettrica del carburante su un piccolo motore diesel common rail e viene proposta una architettura di controllo. Lo scopo è quello di massimizzare il risparmio di carburante, senza alcun impatto sul controllo della pressione nelle condizioni transitorie del motore.
Resumo:
La brain computer interface sono state create per sopperire ai problemi motori e di linguistica nei pazienti che, a causa di malattie neurodegenerative o in seguito a traumi, sono paralizzate o non riescono a parlare. Vengono prese in questione le caratteristiche di un sistema per le BCI analizzando ogni blocco funzionale del sistema. Si fa visione delle applicazioni tra le quali la possibilità di far muovere un arto bionico a una donna tetraplegica e la possibilità di far scrivere una parola su uno schermo a un paziente non in grado di comunicare verbalmente. Si mettono in luce i problemi annessi a questo campo e i possibili sviluppi.
Resumo:
Lo scopo di questa tesi è valutare la resistenza a compressione e il valore del modulo elastico di tre laminati ottenuti con lo stesso materiale composito, CFRP, distinti in fase di laminazione dall’utilizzo di tre diverse tipologie di distaccante (peel-ply, film distaccante e controstampo). In questo modo è stato possibile valutare come quest’ultimi abbiano influito, in modo diverso per ogni laminato, sull’omogeneità dello spessore, sul peso, sulla fuoriuscita di resina e sulla percentuale volumetrica delle fibre. Tali fattori a loro volta hanno caratterizzato i valori di resistenza a compressione e modulo elastico. Nei capitoli successivi è descritto un metodo di analisi a compressione dei materiali compositi, a matrice epossidica rinforzata con fibre di carbonio (CFRP), denominato Combined Loading Compression (CLC) Test Method, basato sull’applicazione, combinata, del carico sul campione, a taglio e all’estremità. La realizzazione dei provini è stata effettuata presso i laboratori dell’università: sono stati realizzati 3 laminati, per ognuno dei quali si è scelto di utilizzare su ogni pezzo una diversa tipologia di distaccante: controstampo, film distaccante e peel-ply, allo scopo di valutare quanta resina uscirà dal manufatto una volta in autoclave e quanta variazione di spessore avremo. Da ognuno di questi laminati sono stati ricavati 5 provini. La campagna sperimentale è stata condotta presso il Laboratorio Tecnologie dei Materiali Faenza (TEMAF). L’elaborazione dei dati è stata effettuata mediante l’utilizzo del software Office Excel, in cui sono stati calcolati i parametri fondamentali, suggeriti dalla normativa ASTM D6641/D6641M, per la caratterizzazione meccanica a compressione dei materiali CFRP.
Resumo:
Quando si fa una ricerca su Internet con i motori di ricerca, tipo Google, lo scopo è quello di trovare tutte le pagine Web contenenti le parole richieste. Ancor di più, si vorrebbe avere la miglior risposta alla nostra richiesta tra le prime pagine lette, senza dover passare in rassegna tutte le migliaia di pagine che il motore di ricerca propone. Quello che riceviamo come risposta dal motore di ricerca, è infatti una lista lunghissima di pagine Web, contenenti le parole chiave e ordinate in base all’importanza. Nelle prime posizioni della lista troveremo le pagine più significative, mentre in fondo ci saranno quelle di meno rilevanza. In questa tesi affronteremo, appunto, il problema di classificazione, il quale non è basato su un giudizio umano, ma sulla struttura dei link del Web. Studieremo, per l’esattezza, il concetto di pagerank usato da Google e di conseguenza l’algoritmo, chiamato proprio PageRank, per classificare le pagine Web. Vedremo che il tutto si basa su un’equazione matematica, ossia sul calcolo dell’autovettore, relativo all’autovalore uguale a 1, di una certa matrice che rappresenta la rete Internet.
Resumo:
Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.
Resumo:
Lo svolgimento di questa tesi ha riguardato la caratterizzazione di una roccia carbonatica metamorfica, marmo proveniente da un bacino estrattivo delle Alpi Apuane, mediante prove di laboratorio: in particolare, si è esaminato il comportamento di tale materiale sia mediante prove distruttive, sia mediante prove non distruttive. Lo studio è stato condotto su diverse tipologie di campioni (cilindri di diametro differente ma con uguale rapporto tra diametro e altezza, campioni informi di materiale), tutti ottenuti da blocchi informi prelevati nel bacino estrattivo dell’Arnetola, sito nel comune di Vagli Sotto (LU). Sui campioni carotati sono state eseguite più prove standard (distruttive e non), mentre i campioni informi sono stati utilizzati per la determinazione, mediante prova distruttiva, dell’indice di resistenza R.I.H.N. (acronimo di Rock Impact Hardness Number). Tale prova è in grado di fornire utili informazioni sulla resistenza dei materiali rocciosi, risultando particolarmente utile nell’industria estrattiva grazie alla semplice apparecchiatura che dà la possibilità di eseguire un numero elevato di determinazioni nei centri stessi di produzione, con bassi costi unitari. Data la variabilità dei risultati ottenuti, sono state eseguite ulteriori analisi (studio tessiturale in sezione sottile, analisi calcimetrica e analisi diffrattometrica) che mettessero in luce la composizione mineralogica e la struttura microscopica del materiale testato, in modo da interpretare i risultati delle prove di laboratorio effettuate. Alla luce dei risultati ottenuti, sono state elaborate alcune correlazioni tra le varie prove, facendo anche uso di alcuni abachi.