287 resultados para Macchine automatiche prototipazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work describes the development of a simulation tool which allows the simulation of the Internal Combustion Engine (ICE), the transmission and the vehicle dynamics. It is a control oriented simulation tool, designed in order to perform both off-line (Software In the Loop) and on-line (Hardware In the Loop) simulation. In the first case the simulation tool can be used in order to optimize Engine Control Unit strategies (as far as regard, for example, the fuel consumption or the performance of the engine), while in the second case it can be used in order to test the control system. In recent years the use of HIL simulations has proved to be very useful in developing and testing of control systems. Hardware In the Loop simulation is a technology where the actual vehicles, engines or other components are replaced by a real time simulation, based on a mathematical model and running in a real time processor. The processor reads ECU (Engine Control Unit) output signals which would normally feed the actuators and, by using mathematical models, provides the signals which would be produced by the actual sensors. The simulation tool, fully designed within Simulink, includes the possibility to simulate the only engine, the transmission and vehicle dynamics and the engine along with the vehicle and transmission dynamics, allowing in this case to evaluate the performance and the operating conditions of the Internal Combustion Engine, once it is installed on a given vehicle. Furthermore the simulation tool includes different level of complexity, since it is possible to use, for example, either a zero-dimensional or a one-dimensional model of the intake system (in this case only for off-line application, because of the higher computational effort). Given these preliminary remarks, an important goal of this work is the development of a simulation environment that can be easily adapted to different engine types (single- or multi-cylinder, four-stroke or two-stroke, diesel or gasoline) and transmission architecture without reprogramming. Also, the same simulation tool can be rapidly configured both for off-line and real-time application. The Matlab-Simulink environment has been adopted to achieve such objectives, since its graphical programming interface allows building flexible and reconfigurable models, and real-time simulation is possible with standard, off-the-shelf software and hardware platforms (such as dSPACE systems).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heat treatment of steels is a process of fundamental importance in tailoring the properties of a material to the desired application; developing a model able to describe such process would allow to predict the microstructure obtained from the treatment and the consequent mechanical properties of the material. A steel, during a heat treatment, can undergo two different kinds of phase transitions [p.t.]: diffusive (second order p.t.) and displacive (first order p.t.); in this thesis, an attempt to describe both in a thermodynamically consistent framework is made; a phase field, diffuse interface model accounting for the coupling between thermal, chemical and mechanical effects is developed, and a way to overcome the difficulties arising from the treatment of the non-local effects (gradient terms) is proposed. The governing equations are the balance of linear momentum equation, the Cahn-Hilliard equation and the balance of internal energy equation. The model is completed with a suitable description of the free energy, from which constitutive relations are drawn. The equations are then cast in a variational form and different numerical techniques are used to deal with the principal features of the model: time-dependency, non-linearity and presence of high order spatial derivatives. Simulations are performed using DOLFIN, a C++ library for the automated solution of partial differential equations by means of the finite element method; results are shown for different test-cases. The analysis is reduced to a two dimensional setting, which is simpler than a three dimensional one, but still meaningful.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Combustion control is one of the key factors to obtain better performances and lower pollutant emissions for diesel, spark ignition and HCCI engines. An algorithm that allows estimating, as an example, the mean indicated torque for each cylinder, could be easily used in control strategies, in order to carry out cylinders trade-off, control the cycle to cycle variation, or detect misfires. A tool that allows evaluating the 50% of Mass Fraction Burned (MFB50), or the net Cumulative Heat Release (CHRNET), or the ROHR peak value (Rate of Heat Release), could be used to optimize spark advance or to detect knock in gasoline engines and to optimize injection pattern in diesel engines. Modern management systems are based on the control of the mean indicated torque produced by the engine: they need a real or virtual sensor in order to compare the measured value with the target one. Many studies have been performed in order to obtain an accurate and reliable over time torque estimation. The aim of this PhD activity was to develop two different algorithms: the first one is based on the instantaneous engine speed fluctuations measurement. The speed signal is picked up directly from the sensor facing the toothed wheel mounted on the engine for other control purposes. The engine speed fluctuation amplitudes depend on the combustion and on the amount of torque delivered by each cylinder. The second algorithm processes in-cylinder pressure signals in the angular domain. In this case a crankshaft encoder is not necessary, because the angular reference can be obtained using a standard sensor wheel. The results obtained with these two methodologies are compared in order to evaluate which one is suitable for on board applications, depending on the accuracy required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In gasoline Port Fuel Injection (PFI) and Direct Injection (GDI) internal combustion engines, the liquid fuel might be injected into a gaseous ambient in a superheated state, resulting in flash boiling of the fuel. The importance to investigate and predict such a process is due to the influence it has on the liquid fuel atomization and vaporization and thus on combustion, with direct implications on engine performances and exhaust gas emissions. The topic of the present PhD research involves the numerical analysis of the behaviour of the superheated fuel during the injection process, in high pressure injection systems like the ones equipping GDI engines. Particular emphasis is on the investigation of the effects of the fuel superheating degree on atomization dynamics and spray characteristics. The present work is a look at the flash evaporation and flash boiling modeling, from an engineering point of view, addressed to keep the complex physics involved as simple as possible, however capturing the main characteristics of a superheated fuel injection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro si occupa dell’analisi numerica di combustione di gas a basso potere calorifico (gas di sintesi derivanti da pirolisi di biomasse). L’analisi è stata condotta su due principali geometrie di camera di combustione. La prima è un bruciatore sperimentale da laboratorio adatto allo studio delle proprietà di combustione del singas. Esso è introdotto in camera separatamente rispetto ad una corrente d’aria comburente al fine di realizzare una combustione non-premiscelata diffusiva in presenza di swirl. La seconda geometria presa in considerazione è la camera di combustione anulare installata sulla microturbina a gas Elliott TA 80 per la quale si dispone di un modello installato al banco al fine dell’esecuzione di prove sperimentali. I principali obbiettivi conseguiti nello studio sono stati la determinazione numerica del campo di moto a freddo su entrambe le geometrie per poi realizzare simulazioni in combustione mediante l’utilizzo di diversi modelli di combustione. In particolare è stato approfondito lo studio dei modelli steady laminar flamelet ed unsteady flamelet con cui sono state esaminate le distribuzioni di temperatura e delle grandezze tipiche di combustione in camera, confrontando i risultati numerici ottenuti con altri modelli di combustione (Eddy Dissipation ed ED-FR) e con i dati sperimentali a disposizione. Di importanza fondamentale è stata l’analisi delle emissioni inquinanti, realizzata per entrambe le geometrie, che mostra l’entità di tali emissioni e la loro tipologia. Relativamente a questo punto, il maggior interesse si sposta sui risultati ottenuti numericamente nel caso della microturbina, per la quale sono a disposizione misure di emissione ottenute sperimentalmente. Sempre per questa geometria è stato inoltre eseguito il confronto fra microturbina alimentata con singas a confronto con le prestazioni emissive ottenute con il gas naturale. Nel corso dei tre anni, l’esecuzione delle simulazioni e l’analisi critica dei risultati ha suggerito alcuni limiti e semplificazioni eseguite sulle griglie di calcolo realizzate per lo studio numerico. Al fine di eliminare o limitare le semplificazioni o le inesattezze, le geometrie dei combustori e le griglie di calcolo sono state migliorate ed ottimizzate. In merito alle simulazioni realizzate sulla geometria del combustore della microturbina Elliott TA 80 è stata condotta dapprima l’analisi numerica di combustione a pieno carico per poi analizzare le prestazioni ai carichi parziali. Il tutto appoggiandosi a tecniche di simulazione RANS ed ipotizzando alimentazioni a gas naturale e singas derivato da biomasse. Nell’ultimo anno di dottorato è stato dedicato tempo all’approfondimento e allo studio della tecnica Large Eddy Simulation per testarne una applicazione alla geometria del bruciatore sperimentale di laboratorio. In tale simulazione è stato implementato l’SGS model di Smagorinsky-Lilly completo di combustione con modelli flamelet. Dai risultati sono stati estrapolati i profili di temperatura a confronto con i risultati sperimentali e con i risultati RANS. Il tutto in diverse simulazioni a diverso valore del time-step imposto. L’analisi LES, per quanto migliorabile, ha fornito risultati sufficientemente precisi lasciando per il futuro la possibilità di approfondire nuovi modelli adatti all’applicazione diretta sulla MTG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The 3-UPU three degrees of freedom fully parallel manipulator, where U and P are for universal and prismatic pair respectively, is a very well known manipulator that can provide the platform with three degrees of freedom of pure translation, pure rotation or mixed translation and rotation with respect to the base, according to the relative directions of the revolute pair axes (each universal pair comprises two revolute pairs with intersecting and perpendicular axes). In particular, pure translational parallel 3-UPU manipulators (3-UPU TPMs) received great attention. Many studies have been reported in the literature on singularities, workspace, and joint clearance influence on the platform accuracy of this manipulator. However, much work has still to be done to reveal all the features this topology can offer to the designer when different architecture, i.e. different geometry are considered. Therefore, this dissertation will focus on this type of the 3-UPU manipulators. The first part of the dissertation presents six new architectures of the 3-UPU TPMs which offer interesting features to the designer. In the second part, a procedure is presented which is based on some indexes, in order to allows the designer to select the best architecture of the 3-UPU TPMs for a given task. Four indexes are proposed as stiffness, clearance, singularity and size of the manipulator in order to apply the procedure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Applicazione delle direttive europee 2006/42/CE e 97/23/CE, rispettivamente per le macchine e le attrezzature a pressione, ad un impianto per lo scavo di gallerie della metropolitana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The study presented in this work deals with the investigation of the effects produced by two common techniques of static balancing on the dynamic performances of closed-chain linkages, taking into account the compliance of the mechanism components. The long-term goal of the research consists in determining an optimal balancing strategy for parallel spatial manipulators. The present contribution is a starting point and it focuses on the planar four-bar linkage, intended as the simplest example of closed-chain mechanism. The elastodynamic behaviour of an unbalanced four-bar linkage and two balanced ones, respectively obtained by mass and elastic balancing, is investigated by means of both numerical simulations and experimental tests. The purpose of this work is to obtain preliminary results, to be refined and broadened in future developments