949 resultados para polinomio radice stima localizzazione Newton


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The effect of process parameters on the creep-fatigue behavior of a hot-work tool steel for aluminum extrusion die was investigated through a technological test in which the specimen geometry resembled the mandrel of a hollow extrusion die. Tests were performed on a Gleeble thermomechanical simulator by heating the specimen using joule’s effect and by applying cyclic loading up to 6.30 h or till specimen failure. Displacements during the tests at 380, 490, 540 and 580°C and under the average stresses of 400, 600 and 800 MPa were determined. In the first set of test a dwell time of 3 min was introduced during each of the tests to understand the creep behavior. The results showed that the test could indeed physically simulate the cyclic loading on the hollow die during extrusion and reveal all the mechanisms of creep-fatigue interaction. In the second set a pure fatigue laod were induced and in the third set a static creep load were induced in the specimens. Furher type of tests, finite element and microstructural analysis were presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since the first underground nuclear explosion, carried out in 1958, the analysis of seismic signals generated by these sources has allowed seismologists to refine the travel times of seismic waves through the Earth and to verify the accuracy of the location algorithms (the ground truth for these sources was often known). Long international negotiates have been devoted to limit the proliferation and testing of nuclear weapons. In particular the Treaty for the comprehensive nuclear test ban (CTBT), was opened to signatures in 1996, though, even if it has been signed by 178 States, has not yet entered into force, The Treaty underlines the fundamental role of the seismological observations to verify its compliance, by detecting and locating seismic events, and identifying the nature of their sources. A precise definition of the hypocentral parameters represents the first step to discriminate whether a given seismic event is natural or not. In case that a specific event is retained suspicious by the majority of the State Parties, the Treaty contains provisions for conducting an on-site inspection (OSI) in the area surrounding the epicenter of the event, located through the International Monitoring System (IMS) of the CTBT Organization. An OSI is supposed to include the use of passive seismic techniques in the area of the suspected clandestine underground nuclear test. In fact, high quality seismological systems are thought to be capable to detect and locate very weak aftershocks triggered by underground nuclear explosions in the first days or weeks following the test. This PhD thesis deals with the development of two different seismic location techniques: the first one, known as the double difference joint hypocenter determination (DDJHD) technique, is aimed at locating closely spaced events at a global scale. The locations obtained by this method are characterized by a high relative accuracy, although the absolute location of the whole cluster remains uncertain. We eliminate this problem introducing a priori information: the known location of a selected event. The second technique concerns the reliable estimates of back azimuth and apparent velocity of seismic waves from local events of very low magnitude recorded by a trypartite array at a very local scale. For the two above-mentioned techniques, we have used the crosscorrelation technique among digital waveforms in order to minimize the errors linked with incorrect phase picking. The cross-correlation method relies on the similarity between waveforms of a pair of events at the same station, at the global scale, and on the similarity between waveforms of the same event at two different sensors of the try-partite array, at the local scale. After preliminary tests on the reliability of our location techniques based on simulations, we have applied both methodologies to real seismic events. The DDJHD technique has been applied to a seismic sequence occurred in the Turkey-Iran border region, using the data recorded by the IMS. At the beginning, the algorithm was applied to the differences among the original arrival times of the P phases, so the cross-correlation was not used. We have obtained that the relevant geometrical spreading, noticeable in the standard locations (namely the locations produced by the analysts of the International Data Center (IDC) of the CTBT Organization, assumed as our reference), has been considerably reduced by the application of our technique. This is what we expected, since the methodology has been applied to a sequence of events for which we can suppose a real closeness among the hypocenters, belonging to the same seismic structure. Our results point out the main advantage of this methodology: the systematic errors affecting the arrival times have been removed or at least reduced. The introduction of the cross-correlation has not brought evident improvements to our results: the two sets of locations (without and with the application of the cross-correlation technique) are very similar to each other. This can be commented saying that the use of the crosscorrelation has not substantially improved the precision of the manual pickings. Probably the pickings reported by the IDC are good enough to make the random picking error less important than the systematic error on travel times. As a further justification for the scarce quality of the results given by the cross-correlation, it should be remarked that the events included in our data set don’t have generally a good signal to noise ratio (SNR): the selected sequence is composed of weak events ( magnitude 4 or smaller) and the signals are strongly attenuated because of the large distance between the stations and the hypocentral area. In the local scale, in addition to the cross-correlation, we have performed a signal interpolation in order to improve the time resolution. The algorithm so developed has been applied to the data collected during an experiment carried out in Israel between 1998 and 1999. The results pointed out the following relevant conclusions: a) it is necessary to correlate waveform segments corresponding to the same seismic phases; b) it is not essential to select the exact first arrivals; and c) relevant information can be also obtained from the maximum amplitude wavelet of the waveforms (particularly in bad SNR conditions). Another remarkable point of our procedure is that its application doesn’t demand a long time to process the data, and therefore the user can immediately check the results. During a field survey, such feature will make possible a quasi real-time check allowing the immediate optimization of the array geometry, if so suggested by the results at an early stage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il modello afflussi-deflussi e di erosione Kineros2, fisicamente basato, distribuito e a scala di evento, è stato applicato a due bacini idrografici montani della provincia di Bologna (Italia) al fine di testare e valutare il suo funzionamento in ambiente appenninico. Dopo la parametrizzazione dei due bacini, Kineros2 è stato calibrato e validato utilizzando dati sperimentali di portata e di concentrazione dei solidi sospesi, collezionati alla chiusura dei bacini grazie alla presenza di due stazioni di monitoraggio idrotorbidimetrico. La modellazione ha consentito di valutare la capacità del modello di riprodurre correttamente le dinamiche idrologiche osservate, nonchè di trarre conclusioni sulle sue potenzialità e limitazioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi di dottorato “Buoni cibi per buoni pensieri. Rituali di consumo alimentare tra flussi di globalizzazione e pratiche di localizzazione” verte attorno allo studio e all’approfondimento della sociologia dei consumi, con particolare riferimento alle relazioni che si possono instaurare tra i comportamenti alimentari collettivi a livello locale e il sistema globale. Il focus dell’analisi si incentra sulla sostenibilità dei consumi, fenomenologia esemplificativa di una modalità di rapporto degli uomini con i cibi innovativa e al contempo nient’affatto scontata: non soltanto a livello individual-collettivo come strumento di intelligibilità sociale e costruzione di senso, ma anche sul piano sistemico come rapporto con l’ambiente e il mondo circostante. In effetti, il percorso di studi che ha condotto all’elaborazione teorica ed empirica della tesi di dottorato, pur muovendo da studi radicati nella letteratura socio-antropologica come il consumo dei cibi e la cultura da essi veicolata, viene oggi inquadrata all’interno di nuovi scenari sullo sfondo del mutamento socioeconomico: le pratiche di sostenibilità causate dalle ambivalenti ripercussioni giocate dalla globalizzazione sui sistemi sociali. Se è vero infatti che oggi si vive in una società complessa, caratterizzata dalla crescente centralità del sistema del consumo rispetto agli altri sottosistemi, è evidente come una ri-lettura critica delle sue dimensioni simboliche ed intersoggettive nel senso del ridimensionamento degli aspetti legati alla mercificazione e al materialismo, faccia sì che la tesi dottorale si orienti sulla ricerca di una sostenibilità oggi tanto diffusa, da sostanziarsi sempre più anche nelle pratiche di consumo alimentare. Oggetto specifico di questo lavoro sono dunque, senza pretesa di esaustività ma rappresentative del contesto spaziale preso in esame, fenomenologie del consumo alimentare italiano all’interno di uno scenario globale: in particolare, si affronta la nuova cultura della sostenibilità che nasce dall’incontro fra i cittadini-consumatori e le complesse tematiche emergenti del sistema sociale di riferimento.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce dalla collaborazione tra l’Università di Bologna, Polo Scientifico Didattico di Ravenna, e l’Agenzia Regionale Prevenzione ed Ambiente dell’Emilia Romagna (ARPA EMR), sezione di Ravenna, inserendosi nell’ambito del progetto di Dottorato “Sviluppo di tecniche per la progettazione delle reti di monitoraggio della qualità dell’aria”. Lo scopo principale dello studio è quello di definire una metodologia di tipo Top-Down per disaggregare spazialmente sulla Provincia di Ravenna le emissioni in atmosfera stimate dall’inventario provinciale di ARPA EMR. La metodologia CORINAIR (COordination INformation AIR), sviluppata dalla Agenzia Europea per l’Ambiente, prefigura due possibili procedure di stima delle emissioni in atmosfera: Top-Down (parte dalla scala spaziale più ampia e discende a livelli inferiori) e Bottom-Up (parte invece dall’analisi della realtà produttiva locale per passare a quella relativa a livelli di aggregazione maggiori). La metodologia proposta, di tipo Top-Down, si avvale volutamente di variabili proxy facilmente reperibili a livello comunale, in modo che possa essere applicata anche ad altre realtà locali, meno ricche di dati statistici e ambientali di quanto non lo sia la regione Emilia Romagna in generale e la provincia di Ravenna in particolare. La finalità ultima dello studio è quella di fornire una metodologia per ottenere, attraverso dati resi disponibili da ogni amministrazione comunale, un quadro conoscitivo della situazione emissiva in atmosfera a livello locale a supporto della gestione della qualità dell’aria e dei relativi fattori di pressione. Da un punto di vista operativo, il lavoro di tesi è stato suddiviso in: una fase progettuale, con l’obiettivo di individuare i Macrosettori CORINAIR e gli inquinanti principali da tenere in considerazione nello studio, ed identificare le variabili proxy più opportune per la disaggregazione delle emissioni; una fase di raccolta dei dati ed infine, l’elaborazione dei dati con l’ausilio del software GIS ArcMap 9.3. La metodologia Top-Down è stata applicata in due fasi: con la prima si è effettuata la disaggregazione dal livello provinciale a quello comunale; con la seconda, le emissioni attribuite al comune di Ravenna sono state distribuite spazialmente su una griglia le cui celle hanno dimensione 100m x 100m in modo da ottenere una disaggregazione ad alta risoluzione. I risultati ottenuti dalla disaggregazione effettuata sono stati confrontati, là dove possibile, con dati ottenuti da un approccio Bottom-Up, allo scopo di validare la metodologia proposta. I confronti fra le stime effettuate con l’approccio Top-Down e quelle derivanti dall’approccio Bottom-Up hanno evidenziato risultati diversi per i differenti Macrosettori investigati. Per il macrosettore industriale, si sono evidenziate una serie di limitazioni dimostrando che l’utilizzo della proxy ‘superficie industriale’, così come applicata, non è adeguata né a livello qualitativo né quantitativo. Limitazioni significative, si osservano anche per il macrosettore ‘traffico veicolare’ per il quale è possibile effettuare una stima accurata delle emissioni totali ma poi la disaggregazione spaziale ad alta risoluzione appare insoddisfacente. Ottime risultano invece le performance della metodologia proposta per il macrosettore combustione non industriale, per il quale si osserva un buon accordo sia per i valori emissivi globali, sia per la loro distribuzione spaziale ad alta risoluzione. Relativamente agli altri settori e macrosettori analizzati (‘Altre sorgenti mobili’ e ‘Agricoltura’), non è stato possibile effettuare confronti con dati provenienti dall’approccio Bottom- Up. Nonostante ciò, dopo un’attenta ricerca bibliografica, si può affermare, che le proxy utilizzate sono fra quelle più impiegate in letteratura, ed il loro impiego ha permesso l’ottenimento di una distribuzione spaziale verosimile ed in linea con l’inventario provinciale ARPA EMR. In ultimo, le mappe di pressione ottenute con l’ausilio di ArcMap sono state analizzate qualitativamente per identificare, nel territorio del Comune di Ravenna, le zone dove insiste una maggiore pressione emissiva sul comparto atmosferico. E’ possibile concludere che il livello di dettaglio ottenuto appare sufficiente a rappresentare le zone più critiche del territorio anche se un ulteriore lavoro dovrà essere previsto per sviluppare meglio i macrosettori che hanno mostrato le maggiori criticità. Inoltre, si è riusciti a tracciare una metodologia sufficientemente flessibile per poterla applicare anche ad altre realtà locali, tenendo comunque sempre presente che, la scelta delle proxy, deve essere effettuata in funzione delle caratteristiche intrinseche del territorio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Combustion control is one of the key factors to obtain better performances and lower pollutant emissions for diesel, spark ignition and HCCI engines. An algorithm that allows estimating, as an example, the mean indicated torque for each cylinder, could be easily used in control strategies, in order to carry out cylinders trade-off, control the cycle to cycle variation, or detect misfires. A tool that allows evaluating the 50% of Mass Fraction Burned (MFB50), or the net Cumulative Heat Release (CHRNET), or the ROHR peak value (Rate of Heat Release), could be used to optimize spark advance or to detect knock in gasoline engines and to optimize injection pattern in diesel engines. Modern management systems are based on the control of the mean indicated torque produced by the engine: they need a real or virtual sensor in order to compare the measured value with the target one. Many studies have been performed in order to obtain an accurate and reliable over time torque estimation. The aim of this PhD activity was to develop two different algorithms: the first one is based on the instantaneous engine speed fluctuations measurement. The speed signal is picked up directly from the sensor facing the toothed wheel mounted on the engine for other control purposes. The engine speed fluctuation amplitudes depend on the combustion and on the amount of torque delivered by each cylinder. The second algorithm processes in-cylinder pressure signals in the angular domain. In this case a crankshaft encoder is not necessary, because the angular reference can be obtained using a standard sensor wheel. The results obtained with these two methodologies are compared in order to evaluate which one is suitable for on board applications, depending on the accuracy required.