960 resultados para Progettazione, CAD, recipienti in pressione
Resumo:
This paper describes a study and analysis of surface normal-base descriptors for 3D object recognition. Specifically, we evaluate the behaviour of descriptors in the recognition process using virtual models of objects created from CAD software. Later, we test them in real scenes using synthetic objects created with a 3D printer from the virtual models. In both cases, the same virtual models are used on the matching process to find similarity. The difference between both experiments is in the type of views used in the tests. Our analysis evaluates three subjects: the effectiveness of 3D descriptors depending on the viewpoint of camera, the geometry complexity of the model and the runtime used to do the recognition process and the success rate to recognize a view of object among the models saved in the database.
Resumo:
The use of microprocessor-based systems is gaining importance in application domains where safety is a must. For this reason, there is a growing concern about the mitigation of SEU and SET effects. This paper presents a new hybrid technique aimed to protect both the data and the control-flow of embedded applications running on microprocessors. On one hand, the approach is based on software redundancy techniques for correcting errors produced in the data. On the other hand, control-flow errors can be detected by reusing the on-chip debug interface, existing in most modern microprocessors. Experimental results show an important increase in the system reliability even superior to two orders of magnitude, in terms of mitigation of both SEUs and SETs. Furthermore, the overheads incurred by our technique can be perfectly assumable in low-cost systems.
Resumo:
Purpose – The purpose of this paper is to present a new geometric model based on the mathematical morphology paradigm, specialized to provide determinism to the classic morphological operations. The determinism is needed to model dynamic processes that require an order of application, as is the case for designing and manufacturing objects in CAD/CAM environments. Design/methodology/approach – The basic trajectory-based operation is the basis of the proposed morphological specialization. This operation allows the definition of morphological operators that obtain sequentially ordered sets of points from the boundary of the target objects, inexistent determinism in the classical morphological paradigm. From this basic operation, the complete set of morphological operators is redefined, incorporating the concept of boundary and determinism: trajectory-based erosion and dilation, and other morphological filtering operations. Findings – This new morphological framework allows the definition of complex three-dimensional objects, providing arithmetical support to generating machining trajectories, one of the most complex problems currently occurring in CAD/CAM. Originality/value – The model proposes the integration of the processes of design and manufacture, so that it avoids the problems of accuracy and integrity that present other classic geometric models that divide these processes in two phases. Furthermore, the morphological operative is based on points sets, so the geometric data structures and the operations are intrinsically simple and efficient. Another important value that no excessive computational resources are needed, because only the points in the boundary are processed.
Resumo:
Integrity assurance of configuration data has a significant impact on microcontroller-based systems reliability. This is especially true when running applications driven by events which behavior is tightly coupled to this kind of data. This work proposes a new hybrid technique that combines hardware and software resources for detecting and recovering soft-errors in system configuration data. Our approach is based on the utilization of a common built-in microcontroller resource (timer) that works jointly with a software-based technique, which is responsible to periodically refresh the configuration data. The experiments demonstrate that non-destructive single event effects can be effectively mitigated with reduced overheads. Results show an important increase in fault coverage for SEUs and SETs, about one order of magnitude.
Resumo:
Il principale componente non idrocarburico contenuto nel gas naturale è l’acqua che viene rimossa mediante assorbimento con glicole trietilenico, il processo di trattamento più comune nella produzione di gas naturale. La presenza di acqua libera nel gas deve essere rimossa totalmente, per evitare la formazione di condensa nelle condizioni di trasporto e di distribuzione più critiche cioè a pressione elevata e a bassa temperatura. Obiettivo di questa tesi è l’analisi delle cause e dei fenomeni che portano a rilevanti perdite di glicole (TEG) in impianti di disidratazione del gas naturale operanti con elevate concentrazioni di CO2 e H2S nel gas di processo. Le perdite, in relazione alle diverse condizioni operative e concentrazioni dei gas menzionati, possono arrivare a raggiungere valori pari a 3-4 volte l'entità attesa, con punte che raggiungono 10 volte tali valori. Il lavoro di tesi è stato focalizzato su un impianto attualmente in esercizio, situato in Arabia Saudita. L’attività è stata condotta presso la Comart di Ravenna, azienda specializzata nella progettazione di impianti nel settore Oil&Gas. Inizialmente sono state studiate le caratteristiche di un impianto di disidratazione di gas naturale mediante assorbimento con glicole trietilenico. Dopo l’analisi delle possibili fonti di perdita, la colonna di alimentazione del ribollitore (Still Column) e il relativo condensatore, sulla base dei dati operativi degli impianti, sembra essere il punto su cui si concentrano le perdite. Vengono presentati i dettagli costruttivi di tale colonna al fine di determinarne i possibili malfunzionamenti. Scopo della tesi sarà l'identificazione, partendo dall'attuale configurazione dell’impianto, delle cause che portano a tali valori di perdite e l'individuazione di una configurazione colonna/condensatore (con eventuali altri equipment necessari) in grado di minimizzare le perdite contenendo al minimo i costi aggiuntivi della soluzione.
Resumo:
In questo lavoro vengono indagati i benefici dell’aumento della pressione d’iniezione dell’AdBlue nei sistemi SCR. Dopo aver esposto le ipotesi teoriche a supporto della tesi, si passa all’allestimento del veicolo dimostrativo impiegato per l’attività sperimentale. In questa fase viene illustrato tutto il processo di preparazione, che comprende: la messa a punto del circuito idraulico, la caratterizzazione degli iniettori impiegati, la strumentazione della linea di scarico, e il software INCA impiegato per il comando delle centraline. Dopodiché vengono descritti nel dettaglio i test, condotti con il veicolo sperimentale, sul banco a rulli. Attraverso le prove, eseguite su due differenti punti motore, si è potuto dimostrare l’effettivo aumento di efficienza di abbattimento degli NOx, da parte del sistema SCR, all’aumentare della pressione d’iniezione dell’AdBlue. Inoltre si hanno effetti positivi anche in merito al fenomeno dell’ammonia slip, che viene sensibilmente ridotto ai livelli di pressione più alti.
Resumo:
Il presente elaborato è incentrato sulla modellizzazione del plasma di bordo nei dispositivi per la produzione di energia da fusione nucleare noti come tokamak. La tecnologia che nel corso di tutta la seconda metà del XX secolo fino ad oggi è stata sviluppata a questo fine deve necessariamente scontrarsi con alcuni limiti. Nei tokamak il confinamento del plasma è di tipo magnetico e vincola le particelle a muoversi di moto elicoidale all'interno del vessel, tuttavia il confinamento non risulta perfetto e parte dell'energia si scarica sulle pareti della camera, rischiando pertanto di fondere i materiali. Alcune strategie possono essere messe in atto per limitare questo problema, per esempio agendo sulla geometria del tokamak, oppure sulla fisica, inducendo nel plasma una data concentrazione di impurezze che ionizzino irraggiando parte dell'energia di plasma. Proprio tale meccanismo di perdita è stato simulato in un modello monodimensionale di plasma monofluido di bordo. I risultati del codice numerico relativo al modello dimostrano che per concentrazioni di impurezze crescenti è possibile diminuire in modo significativo flusso di calore e temperatura al divertore. Per di più risulta possibile controllare la posizione del fronte di irraggiamento per mezzo di parametri di controllo del plasma quali la pressione. Si osserva inoltre l'insorgere del cosiddetto fenomeno di biforcazione alle basse temperature di divertore, fenomeno in cui il plasma si comporta in modo instabile a causa di fenomeni fisici tipici delle basse energie ("detachment") e a seguito del quale può improvvisamente spegnersi (disruzione). Infine lo stesso modello è stato migliorato inserendo l'ipotesi di plasma bifluido. Anche per gli ioni viene osservato il fenomeno di biforcazione. I risultati numerici evidenziano le dinamiche dello scambio energetico fra le specie gettando le basi di una progettazione efficiente della chimica del plasma finalizzata al raffreddamento del divertore.
Resumo:
In questa tesi sono stati studiati i fattori che influenzano l'utilizzo del buffer in un magazzino manuale. Per poter realizzare le analisi è stato realizzato un programma C# che simula la gestione del magazzino. Per ottimizzare l'assegnamento dei pallet alle location si è inoltre costruito un modello AMPL. L'obiettivo del modello è minimizzare la differenza tra le classi ottime dei codici in ingresso e i posti pallet ai quali questi vengono assegnati. Il programma C# oltre all'interfaccia con il risolutore AMPL Gurobi, deve interfacciarsi anche con il data base Access nel quale sono stati organizzati i dati necessari per l'analisi. Questi dati sono reali e relativi agli ingressi e alle uscite di un magazzino contenente materiale farmaceutico di due settimane di lavoro. Per facilitare e velocizzare lo studio le informazioni considerate sono quelle di due soli corridoi e non dell'intero magazzino. I risultati hanno evidenziato quattro fattori principali che influenzano la differenza tra un l'allocazione dei pallet in ingresso ad un magazzino. Questi elementi sono: costo di utilizzo del buffer, numero di location libere ad inizio simulazione, momento d'esecuzione del picking a magazzino e tipologia di location vute ad inizio della simulazione. Per ognuno di questi si è cercato, per quanto possibile, di individuare le implicazioni che quanto studiato può avere nella progettazione di un sistema di stoccaggio reale sia dal punto di vista logistico sia dal punto di vista economico. Non sempre le osservazioni reali alle quali si è arrivati hanno un risvolto pratico immediato, ma senza dubbio possono essere utili nello studio preliminare per la realizzazione di un sistema di stoccaggio. All'interno delle conclusioni sono state inserite anche possibili studi e approfondimenti futuri che possono essere eseguiti partendo dal progetto di tesi qui presentato.
Resumo:
Lo scopo della presente tesi è quello di illustrare alcuni dei principali strumenti messi a disposizione dai controlli automatici a servizio dell’ingegneria, in particolare analizzando la struttura generale di una fabbrica automatica e descrivendone i principali sistemi di controllo. L’elaborato è suddiviso in tre macro parti: la prima ha l’obiettivo di inquadrare quella che è la fabbrica automatica, partendo dal precedente concetto di fabbrica tradizionale fino ad arrivare alla fabbrica moderna, caratterizzata da una spinta flessibilità produttiva determinata da una politica di produzione per lotti con elevati livelli di caratterizzazione. Della fabbrica automatica viene poi approfondita l’integrazione con i calcolatori attraverso il sistema concettuale del CIM, Computer Integrated Manufacturing, e l’impiego di celle di fabbricazione flessibili, ovvero le FMS, Flexible Manufacturing System. La seconda parte è incentrata sull’analisi delle logiche di controllo impiegate all’interno di tutto il processo di progettazione e di produzione, suddivise in tre gruppi: il primo focalizzato sui sistemi per la produzione automatica, NC e DNC; il secondo sui sistemi di simulazione e testing del prodotto, CAD, CAM e CAT; il terzo sui sistemi di controllo e sviluppo dati, SCADA, MES e DCS. La terza ed ultima parte è circoscritta all’approfondimento di un particolare sistema di controllo per la gestione dei processi, ovvero sull’uso del PLC, il Controllore Logico Programmabile. Vengono analizzate le componenti fisiche che lo costituiscono, il funzionamento base, i tempi di esecuzione delle istruzioni, i criteri di scelta e di dimensionamento ed altri aspetti rilevanti. Infine è presente un esempio applicativo di alcuni aspetti sovra citati con il caso dell’azienda bolognese G.D, leader del settore delle macchine automatiche a controllo numerico per la fabbricazione e l’impacchettamento delle sigarette.
Resumo:
L'elaborato di tesi è stato redatto durante un progetto semestrale in Ferretti Group riguardante il campo di applicazione delle logiche della lean production all'interno del settore della cantieristica navale. Il primo capitolo contiene una descrizione dell'evoluzione del Gruppo Ferretti, dalla nascita fino ai giorni nostri. Nel secondo capitolo vi è una ampia descrizione della filosofia lean e delle tecniche e egli strumenti usati nei contesti aziendali; il terzo capitolo nasce invece per sintetizzare una serie di articoli accademici inerenti al tema del "lean shipbuilding". Infine il quarto capitolo descrive alcune attività eseguite in azienda, a supporto della nascita di una nuova linea di assemblaggio per il modello Ferretti 450.
Resumo:
Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.
Resumo:
BACKGROUND Canine atopic dermatitis (CAD) is a chronic inflammatory skin disease triggered by allergic reactions involving IgE antibodies directed towards environmental allergens. We previously identified a ~1.5 Mb locus on canine chromosome 27 associated with CAD in German shepherd dogs (GSDs). Fine-mapping indicated association closest to the PKP2 gene encoding plakophilin 2. RESULTS Additional genotyping and association analyses in GSDs combined with control dogs from five breeds with low-risk for CAD revealed the top SNP 27:19,086,778 (p = 1.4 × 10(-7)) and a rare ~48 kb risk haplotype overlapping the PKP2 gene and shared only with other high-risk CAD breeds. We selected altogether nine SNPs (four top-associated in GSDs and five within the ~48 kb risk haplotype) that spanned ~280 kb forming one risk haplotype carried by 35 % of the GSD cases and 10 % of the GSD controls (OR = 5.1, p = 5.9 × 10(-5)), and another haplotype present in 85 % of the GSD cases and 98 % of the GSD controls and conferring a protective effect against CAD in GSDs (OR = 0.14, p = 0.0032). Eight of these SNPs were analyzed for transcriptional regulation using reporter assays where all tested regions exerted regulatory effects on transcription in epithelial and/or immune cell lines, and seven SNPs showed allelic differences. The DNA fragment with the top-associated SNP 27:19,086,778 displayed the highest activity in keratinocytes with 11-fold induction of transcription by the risk allele versus 8-fold by the control allele (pdifference = 0.003), and also mapped close (~3 kb) to an ENCODE skin-specific enhancer region. CONCLUSIONS Our experiments indicate that multiple CAD-associated genetic variants located in cell type-specific enhancers are involved in gene regulation in different cells and tissues. No single causative variant alone, but rather multiple variants combined in a risk haplotype likely contribute to an altered expression of the PKP2 gene, and possibly nearby genes, in immune and epithelial cells, and predispose GSDs to CAD.
Resumo:
Mode of access: Internet.
Resumo:
Impaired coronary flow reserve is widely reported in diabetes mellitus (DM) but its effect on myocardial contrast echocardiography (MCE) is unclear. We sought to identify whether DM influences the accuracy of qualitative and quantitative assessment of coronary artery disease (CAD) using MCE in 83 patients who underwent coronary angiography (60 men, 27 with DM; 56 +/- 11 years;). Destruction replenishment imaging was performed at rest and after combined dipyridamole-exercise stress testing. Ischemia was identified by the development of new wall motion abnormalities, qualitative MCE (new perfusion defects apparent 1 second after flash during hyperemia), and quantitative MCE (myocardial blood flow reserve < 2.0 in the anterior circulation). Qualitative and quantitative assessment of perfusion was feasible in 100% and 92% of patients, respectively. Significant left anterior descending coronary stenosis (> 50% by quantitative angiography) was present in 28 patients (including 8 with DM); 55 patients had no CAD (including 19 with DM). The myocardial blood flow reserve was reduced in patients with coronary stenosis compared with those with no CAD (1.6 +/- 1.1 vs 3.8 +/- 2.5, p < 0.001). Among patients with no CAD, those with DM had an impaired flow reserve compared with control patients without DM (2.4 +/- 1.0 vs 4.5 +/- 2.8, p = 0.003). In conclusion, DM significantly influenced the quantitative, but not the qualitative, assessment of MCE, with a marked reduction in specificity in patients with DM. (c) 2005 Elsevier Inc. All rights reserved.
Resumo:
Although the LDL cholesterol-lowering statins have reduced the mortality and morbidity associated with coronary artery disease (CAD), considerable mortality and morbidity remains. Increasing HDL cholesterol levels is associated with reduced CAD mortality and morbidity. In healthy subjects with mild dyslipidemia, treatment with JTT-705 decreased cholesteryl ester transfer protein (CETP) activity, increased HDL cholesterol and decreased LDL cholesterol. Similarly, another CETP inhibitor, torcetrapib, has recently been shown to increase HDL cholesterol by 46%, decrease LDL cholesterol by 8% and have no effect on triglycerides in subjects with HDL cholesterol levels below 1.0 mmol/l. Increasing HDL cholesterol with inhibitors of CETP represents a new approach to dyslipidemia that requires further investigation, especially in patients with CAD.