971 resultados para MARTEL-INLET
Resumo:
In der Herstellung fester Darreichungsformen umfasst die Granulierung einen komplexen Teilprozess mit hoher Relevanz für die Qualität des pharmazeutischen Produktes. Die Wirbelschichtgranulierung ist ein spezielles Granulierverfahren, welches die Teilprozesse Mischen, Agglomerieren und Trocknen in einem Gerät vereint. Durch die Kombination mehrerer Prozessstufen unterliegt gerade dieses Verfahren besonderen Anforderungen an ein umfassendes Prozessverständnis. Durch die konsequente Verfolgung des PAT- Ansatzes, welcher im Jahre 2004 durch die amerikanische Zulassungsbehörde (FDA) als Guideline veröffentlicht wurde, wurde der Grundstein für eine kontinuierliche Prozessverbesserung durch erhöhtes Prozessverständnis, für Qualitätserhöhung und Kostenreduktion gegeben. Die vorliegende Arbeit befasste sich mit der Optimierung der Wirbelschicht-Granulationsprozesse von zwei prozesssensiblen Arzneistoffformulierungen, unter Verwendung von PAT. rnFür die Enalapril- Formulierung, einer niedrig dosierten und hochaktiven Arzneistoffrezeptur, wurde herausgefunden, dass durch eine feinere Zerstäubung der Granulierflüssigkeit deutlich größere Granulatkörnchen erhalten werden. Eine Erhöhung der MassRatio verringert die Tröpfchengröße, dies führt zu größeren Granulaten. Sollen Enalapril- Granulate mit einem gewünschten D50-Kornverteilung zwischen 100 und 140 um hergestellt werden, dann muss die MassRatio auf hohem Niveau eingestellt werden. Sollen Enalapril- Granulate mit einem D50- Wert zwischen 80 und 120µm erhalten werden, so muss die MassRatio auf niedrigem Niveau eingestellt sein. Anhand der durchgeführten Untersuchungen konnte gezeigt werden, dass die MassRatio ein wichtiger Parameter ist und zur Steuerung der Partikelgröße der Enalapril- Granulate eingesetzt werden kann; unter der Voraussetzung dass alle anderen Prozessparameter konstant gehalten werden.rnDie Betrachtung der Schnittmengenplots gibt die Möglichkeit geeignete Einstellungen der Prozessparameter bzw. Einflussgrößen zu bestimmen, welche dann zu den gewünschten Granulat- und Tabletteneigenschaften führen. Anhand der Lage und der Größe der Schnittmenge können die Grenzen der Prozessparameter zur Herstellung der Enalapril- Granulate bestimmt werden. Werden die Grenzen bzw. der „Design Space“ der Prozessparameter eingehalten, kann eine hochwertige Produktqualität garantiert werden. rnUm qualitativ hochwertige Enalapril Tabletten mit der gewählten Formulierung herzustellen, sollte die Enalapril- Granulation mit folgenden Prozessparametern durchgeführt werden: niedrige Sprührate, hoher MassRatio, einer Zulufttemperatur von mindestens > 50 °C und einer effektiven Zuluftmenge < 180 Nm³/h. Wird hingegen eine Sprührate von 45 g/min und eine mittlere MassRatio von 4.54 eingestellt, so muss die effektive Zuluftmenge mindestens 200 Nm³/h und die Zulufttemperatur mindestens 60 °C betragen, um eine vorhersagbar hohe Tablettenqualität zu erhalten. Qualität wird in das Arzneimittel bereits während der Herstellung implementiert, indem die Prozessparameter bei der Enalapril- Granulierung innerhalb des „Design Space“ gehalten werden.rnFür die Metformin- Formulierung, einer hoch dosierten aber wenig aktiven Arzneistoffrezeptur wurde herausgefunden, dass sich der Wachstumsmechanismus des Feinanteils der Metformin- Granulate von dem Wachstumsmechanismus der D50- und D90- Kornverteilung unterscheidet. Der Wachstumsmechanismus der Granulate ist abhängig von der Partikelbenetzung durch die versprühten Flüssigkeitströpfchen und vom Größenverhältnis von Partikel zu Sprühtröpfchen. Der Einfluss der MassRatio ist für die D10- Kornverteilung der Granulate vernachlässigbar klein. rnMit Hilfe der Störgrößen- Untersuchungen konnte eine Regeleffizienz der Prozessparameter für eine niedrig dosierte (Enalapril)- und eine hoch dosierte (Metformin) Arzneistoffformulierung erarbeitet werden, wodurch eine weitgehende Automatisierung zur Verringerung von Fehlerquellen durch Nachregelung der Störgrößen ermöglicht wird. Es ergibt sich für die gesamte Prozesskette ein in sich geschlossener PAT- Ansatz. Die Prozessparameter Sprührate und Zuluftmenge erwiesen sich als am besten geeignet. Die Nachregelung mit dem Parameter Zulufttemperatur erwies sich als träge. rnFerner wurden in der Arbeit Herstellverfahren für Granulate und Tabletten für zwei prozesssensible Wirkstoffe entwickelt. Die Robustheit der Herstellverfahren gegenüber Störgrößen konnte demonstriert werden, wodurch die Voraussetzungen für eine Echtzeitfreigabe gemäß dem PAT- Gedanken geschaffen sind. Die Kontrolle der Qualität des Produkts findet nicht am Ende der Produktions- Prozesskette statt, sondern die Kontrolle wird bereits während des Prozesses durchgeführt und basiert auf einem besseren Verständnis des Produktes und des Prozesses. Außerdem wurde durch die konsequente Verfolgung des PAT- Ansatzes die Möglichkeit zur kontinuierlichen Prozessverbesserung, zur Qualitätserhöhung und Kostenreduktion gegeben und damit das ganzheitliche Ziel des PAT- Gedankens erreicht und verwirklicht.rn
Resumo:
Atmosphärische Aerosolpartikel haben einen Einfluss sowohl auf das Klima als auch auf die menschliche Gesundheit, wobei sowohl die Größe, als auch die chemische Zusammensetzung der Partikel maßgeblich sind. Um insbesondere die chemische Zusammensetzung der Partikel in Abhängigkeit ihrer Quellen besser zu verstehen, wurden im Rahmen dieser Arbeit massenspektrometrische Untersuchungen thermisch verdampfbarer Partikel im Submikrometerbereich durchgeführt. Hierzu wurden sowohl die Massenspektren einzelner Partikel, als auch die von Ensembles von Partikeln mit dem Aerodyne Aerosolmassenspektrometer (AMS) in mehreren Feldmesskampagnen untersucht. Für die Messung von Einzelpartikelmassenspektren wurde das AMS zunächst durch den Einbau eines optischen Partikeldetektors (light scattering probe) modifiziert und anschließend eingehend charakterisiert. Dabei wurde festgestellt, dass mit dem Gerät im Partikelgrößenbereich von etwa 400-750 nm (untere Grenze bedingt durch die Detektionseffizienz des optischen Detektors, obere Grenze durch die Transmissionseffizienz des Aerosoleinlasssystems) quantitative Einzelpartikelmessungen möglich sind. Zudem wurde die Analyse der erhaltenen Messdaten systematisiert, und durch Einsatz von Standardspektren ein Sortieralgorithmus für die Einzelpartikelmassenspektren entwickelt, der erfolgreich auf Daten von Feldmesskampagnen angewandt werden konnte. Mit diesem Sortieralgorithmus sind zudem quantitative Aussagen über die verschiedenen Partikelbestandteile möglich. Im Sommer 2009 und im Winter 2010 fanden im Großraum Paris zwei einmonatige Feldmesskampagnen statt, bei denen unter anderem der Einfluss der Abluftfahne der Megastadt auf seine Vororte untersucht wurde. Erhöhte Konzentrationen sekundär gebildeter Aerosolkomponenten (Nitrat, Sulfat, oxidiertes organisches Aerosol (OOA)) waren insbesondere beim Herantransport kontinentaler Luftmassen zu beobachten. Im Gegensatz dazu waren die beobachteten Konzentrationen der Tracer primärer Emissionen NOx, BC (black carbon) und HOA (hydrocarbonlike organic aerosol) neben der lokalen Quellstärke insbesondere durch die herrschende Windgeschwindigkeit beeinflusst. Aus dem Vergleich der Messungen an drei Stationen konnte der Einfluss der Megastadt Paris auf seine Vororte (unter Annahme gleicher lokaler Emissionen an den zwei Vorort-Stationen) zu 0,1-0,7 µg m-3 BC, 0,3-1,1 µg m-3 HOA, und 3-5 ppb NOx abgeschätzt werden. Zudem konnten für zwei Stationen aus den Ensemble- bzw. den Einzelpartikelmessungen unabhängig voneinander zwei verschiedene HOA-Typen unterschieden werden, die den Quellen „Kochen“ und „Autoabgase“ zugeordnet wurden. Der Anteil der Partikel aus den Quellen „Kochen“ bzw. „Autoabgase“ am Gesamt-HOA betrug 65,5 % und 34,5 % für die Ensemblemessungen in der Innenstadt (nahe vieler Restaurants), und für die Einzelpartikelmessungen in einem Vorort 59 % bzw. 41 % (bezogen auf die Partikelanzahl, welche hier der Masse etwa proportional ist). Die Analyse der Einzelpartikelmassenspektren erbrachte zudem neue Erkenntnisse über den Mischungszustand der Einzelpartikel. So konnte belegt werden, dass Nitrat, Sulfat und OOA intern gemischt sind, HOA-Partikel aber als externe Mischung mit diesen vorliegen. Zudem konnte anhand der Tagesgänge der Masse pro Partikel von OOA, Nitrat und Sulfat und der Anzahl der diese Substanzen enthaltenden Partikel gezeigt werden, dass der im Ensemblemodus beobachtete fehlende Tagesgang der Sulfat-Massenkonzentration wahrscheinlich durch die gegensätzlichen Effekte der Modulation der Partikelanzahlkonzentration durch die sich verändernde Mischungsschichthöhe und der variierenden Masse an Sulfat pro Partikel (mittägliche photochemische Neuproduktion und Kondensation auf existierende Partikel) erklärt werden kann. Für OOA ist eine ähnliche Erklärung des Ensemblemodus-Tagesganges jedoch nur teilweise möglich; weitere Arbeit ist daher nötig, um auch für diese Substanzklasse belastbare Aussagen aus dem Vergleich der Ensemble- und Einzelpartikelmessungen zu erhalten. Im Rahmen einer Labormesskampagne an der AIDA-Kammer in Karlsruhe wurden Ensemble- und Einzelpartikelmassenspektren von Bakterien aufgenommen. Es konnte gezeigt werden, dass es prinzipiell möglich ist, Bakterien in Außenluft mittels Einzelpartikelmessungen nachzuweisen, jedoch wahrscheinlich nur bei sehr hohen Anzahlkonzentrationen. Der Nachweis von Bakterien und anderen primären biologischen Aerosolpartikeln mit dem AMS sollte daher in weiterführenden Experimenten noch optimiert werden.
Resumo:
Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.
Resumo:
Sviluppo di massima di una presa d'aria per un turbocompressore accoppiato ad un motore diesel.
The formation of OH radicals from Criegee intermediates: a LIF-FAGE study from laboratory to ambient
Resumo:
Das Hydroxyl Radikal ist, auf globalem Maßstab, das bedeutendste Oxidant in der Atmosphäre. Es initiiert den Abbauprozess vieler, teilweise schädlicher, Spurengase und insbesondere den von flüchtigen Kohlenwasserstoffen (VOC). Die OH Konzentration ist somit ein gutes Maß für die augenblickliche Selbstreinigungskapazität der Atmosphäre. Messungen zu nächtlicher Zeit mit LIF-FAGE-Instrumenten (engl.: laser-induced fluorescence - fluorescence assay by gas expansion) haben Konzentrationen des Hydroxylradikals (OH) ergeben, die signifikant höher waren, als sich mit der bekannten Chemie erklären ließ. Um herauszufinden, ob ein solches Signal wirklich atmosphärisches OH ist oder von einer störenden Spezies stammt, die im Messinstrument OH produziert, wurde das LIF-FAGE-Instrument des Max-Planck-Instituts für Chemie (MPIC) im Rahmen dieser Doktorarbeit modifiziert und getestet. Dazu wurde ein so genannter Inlet Pre-Injector (IPI) entwickelt, mit dem in regelmäßigen Abständen ein OH-Fänger in die Umgebungsluft abgegeben werden kann, bevor das OH vom Instrument erfasst wird. Mit dieser Technik ist es möglich, ein Hintergrund-OH (OHbg), d. h. ein im Instrument erzeugtes OH-Signal, vom gemessenen OH-Gesamtsignal (OHtot) zu trennen. Die Differenz zwischen OHtot und OHbg ist die atmosphärische OH-Konzentration (OHatm). Vergleichsmessungen mit der hier entwickelten Technik, dem IPI, in zwei verschiedenen Umgebungen mit Instrumenten basierend auf Massenspektrometrie mit chemischer Ionisation (CIMS, engl.: chemical ionization mass spectrometry) als alternativer Methode des OH-Nachweises, zeigten eine weitgehende Übereinstimmung. Eine umfassende Beschreibung des Systems zur Ermittlung der Ursache des OHbg hat ergeben, dass es weder von einem Artefakt des Instruments noch von hinlänglich bekannten und beschriebenen LIF-FAGE-Interferenzen stammt. Zur Bestimmung der Spezies, die das OHbg-Signal verursacht, wurden verschiedene Laborstudien durchgeführt. Die Arbeit im Rahmen dieser Doktorarbeit hat ergeben, dass das LIF-FAGE-Instrument leicht auf OH reagiert, das beim monomolekularen Zerfall stabilisierter Criegee-Intermediate (SCI) im Niederdruckbereich des Instruments gebildet wird. Criegee-Intermediate oder Carbonyloxide entstehen bei der Ozonolyse ungesättigter flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) und können daher in der Umgebungsluft vorkommen. Anhand von Tests mit verschiedenen Verweilzeiten der SCI im Niederdruckbereich des Instruments in Verbindung mit einem detaillierten Modell mit der neuesten SCI-Chemie wurde die monomolekulare Zerfallsgeschwindigkeit von 20 10 s-1 für den syn-Acetaldehyd-Oxykonformer bestimmt. Der in Feldkampagnen gemessene OHbg-Wert wurde dahingehend untersucht, ob SCI die Quelle des beobachteten Hintergrund-OH im Feld sein könnten. Das Budget für die SCI-Konzentration, das für die Kampagnen HUMPPA-COPEC 2010 und HOPE 2012 berechnet wurde, ergab eine SCI-Konzentration zwischen ca. 103 und 106 Molekülen pro cm3. In der Kampagne HUMPPA-COPEC 2010 ergab die Schwefelsäurekonzentration, dass die OH-Oxidation von SO2 allein die gemessene H2SO4-Konzentration nicht erklären konnte. In dieser Arbeit konnte gezeigt werden, dass das Hintergrund-OH mit dieser ungeklärten Produktionsrate von H2SO4 korreliert und somit die Oxidation von SO2 durch SCI als mögliche Erklärung in Frage kommt. Ferner korreliert das Hintergrund-OH in der Kampagne HOPE 2012 mit dem Produkt aus Ozon und VOC und konnte mit SO2 als SCI Fänger entfernt werden. Qualitativ zeigen wir somit, dass das in der Umgebungsluft gemessene Hintergrund-OH wahrscheinlich durch den monomolekularen Zerfall von SCI verursacht wird, doch sind weitere Studien notwendig, um die quantitativen Beziehung für diese Spezies und dem Hintergrund-OH in unserem Instrument zu bestimmen.
Resumo:
Delineating brain tumor boundaries from magnetic resonance images is an essential task for the analysis of brain cancer. We propose a fully automatic method for brain tissue segmentation, which combines Support Vector Machine classification using multispectral intensities and textures with subsequent hierarchical regularization based on Conditional Random Fields. The CRF regularization introduces spatial constraints to the powerful SVM classification, which assumes voxels to be independent from their neighbors. The approach first separates healthy and tumor tissue before both regions are subclassified into cerebrospinal fluid, white matter, gray matter and necrotic, active, edema region respectively in a novel hierarchical way. The hierarchical approach adds robustness and speed by allowing to apply different levels of regularization at different stages. The method is fast and tailored to standard clinical acquisition protocols. It was assessed on 10 multispectral patient datasets with results outperforming previous methods in terms of segmentation detail and computation times.
Resumo:
In this paper we present a new population-based method for the design of bone fixation plates. Standard pre-contoured plates are designed based on the mean shape of a certain population. We propose a computational process to design implants while reducing the amount of required intra-operative shaping, thus reducing the mechanical stresses applied to the plate. A bending and torsion model was used to measure and minimize the necessary intra-operative deformation. The method was applied and validated on a population of 200 femurs that was further augmented with a statistical shape model. The obtained results showed substantial reduction in the bending and torsion needed to shape the new design into any bone in the population when compared to the standard mean-based plates.
Resumo:
Non-linear image registration is an important tool in many areas of image analysis. For instance, in morphometric studies of a population of brains, free-form deformations between images are analyzed to describe the structural anatomical variability. Such a simple deformation model is justified by the absence of an easy expressible prior about the shape changes. Applying the same algorithms used in brain imaging to orthopedic images might not be optimal due to the difference in the underlying prior on the inter-subject deformations. In particular, using an un-informed deformation prior often leads to local minima far from the expected solution. To improve robustness and promote anatomically meaningful deformations, we propose a locally affine and geometry-aware registration algorithm that automatically adapts to the data. We build upon the log-domain demons algorithm and introduce a new type of OBBTree-based regularization in the registration with a natural multiscale structure. The regularization model is composed of a hierarchy of locally affine transformations via their logarithms. Experiments on mandibles show improved accuracy and robustness when used to initialize the demons, and even similar performance by direct comparison to the demons, with a significantly lower degree of freedom. This closes the gap between polyaffine and non-rigid registration and opens new ways to statistically analyze the registration results.
Resumo:
This paper presents a new approach for reconstructing a patient-specific shape model and internal relative intensity distribution of the proximal femur from a limited number (e.g., 2) of calibrated C-arm images or X-ray radiographs. Our approach uses independent shape and appearance models that are learned from a set of training data to encode the a priori information about the proximal femur. An intensity-based non-rigid 2D-3D registration algorithm is then proposed to deformably fit the learned models to the input images. The fitting is conducted iteratively by minimizing the dissimilarity between the input images and the associated digitally reconstructed radiographs of the learned models together with regularization terms encoding the strain energy of the forward deformation and the smoothness of the inverse deformation. Comprehensive experiments conducted on images of cadaveric femurs and on clinical datasets demonstrate the efficacy of the present approach.
Resumo:
The progress of wet age-related macular degeneration can now be controlled by intravitreal drug injection. This approach requires repeated injections, which could be avoided by delivering the drug to the retina. Intraocular implants are a promising solution for drug delivery near the retina. Currently, their accurate placement is challenging, and they can only be removed after a vitrectomy. In this paper, we introduce an approach for minimally invasive retinal drug delivery using magnetic intraocular inserts. We briefly discuss the electromagnetic-control system for magnetic implants and then focus on evaluating their ability to move in the vitreous humor. The mobility of magnetic intraocular implants is estimated in vitro with synthesized vitreous humors, and ex vivo with experiments on cadaver porcine eyes. Preliminary results show that with such magnetic implants a vitrectomy can be avoided.
Resumo:
Brain functions, such as learning, orchestrating locomotion, memory recall, and processing information, all require glucose as a source of energy. During these functions, the glucose concentration decreases as the glucose is being consumed by brain cells. By measuring this drop in concentration, it is possible to determine which parts of the brain are used during specific functions and consequently, how much energy the brain requires to complete the function. One way to measure in vivo brain glucose levels is with a microdialysis probe. The drawback of this analytical procedure, as with many steadystate fluid flow systems, is that the probe fluid will not reach equilibrium with the brain fluid. Therefore, brain concentration is inferred by taking samples at multiple inlet glucose concentrations and finding a point of convergence. The goal of this thesis is to create a three-dimensional, time-dependent, finite element representation of the brainprobe system in COMSOL 4.2 that describes the diffusion and convection of glucose. Once validated with experimental results, this model can then be used to test parameters that experiments cannot access. When simulations were run using published values for physical constants (i.e. diffusivities, density and viscosity), the resulting glucose model concentrations were within the error of the experimental data. This verifies that the model is an accurate representation of the physical system. In addition to accurately describing the experimental brain-probe system, the model I created is able to show the validity of zero-net-flux for a given experiment. A useful discovery is that the slope of the zero-net-flux line is dependent on perfusate flow rate and diffusion coefficients, but it is independent of brain glucose concentrations. The model was simplified with the realization that the perfusate is at thermal equilibrium with the brain throughout the active region of the probe. This allowed for the assumption that all model parameters are temperature independent. The time to steady-state for the probe is approximately one minute. However, the signal degrades in the exit tubing due to Taylor dispersion, on the order of two minutes for two meters of tubing. Given an analytical instrument requiring a five μL aliquot, the smallest brain process measurable for this system is 13 minutes.
Resumo:
Utilization of biogas can provide a source of renewable energy in both heat and power generation. Combustion of biogas in land-based gas turbines for power generation is a promising approach to reducing greenhouse gases and US dependence on foreign-source fossil fuels. Biogas is a byproduct from the decomposition of organic matter and consists primarily of CH4 and large amounts of CO2. The focus of this research was to design a combustion device and investigate the effects of increasing levels of CO2 addition to the combustion of pure CH4 with air. Using an atmospheric-pressure, swirl-stabilized dump combustor, emissions data and flame stability limitations were measured and analyzed. In particular, CO2, CO, and NOx emissions were the main focus of the combustion products. Additionally, the occurrence of lean blowout and combustion pressure oscillations, which impose significant limitations in operation ranges for actual gas turbines, was observed. Preliminary kinetic and equilibrium modeling was performed using Cantera and CEA for the CH4/CO2/Air combustion systems to analyze the effect of CO2 upon adiabatic flame temperature and emission levels. The numerical and experimental results show similar dependence of emissions on equivalence ratio, CO2 addition, inlet air temperature, and combustor residence time. (C) 2014 Elsevier Ltd. All rights reserved.
Resumo:
Purpose: Mismatches between pump output and venous return in a continuous-flow ventricular assist device may elicit episodes of ventricular suction. This research describes a series of in vitro experiments to characterize the operating conditions under which the EVAHEART centrifugal blood pump (Sun Medical Technology Research Corp., Nagano, Japan) can be operated with minimal concern regarding left ventricular (LV) suction. Methods: The pump was interposed into a pneumatically driven pulsatile mock circulatory system (MCS) in the ventricular apex to aorta configuration. Under varying conditions of preload, afterload, and systolic pressure, the speed of the pump was increased step-wise until suction was observed. Identification of suction was based on pump inlet pressure. Results: In the case of reduced LV systolic pressure, reduced preload (=10 mmHg), and afterload (=60 mmHg), suction was observed for speeds =2,200 rpm. However, suction did not occur at any speed (up to a maximum speed of 2,400 rpm) when preload was kept within 10-14 mmHg and afterload =80 mmHg. Although in vitro experiments cannot replace in vivo models, the results indicated that ventricular suction can be avoided if sufficient preload and afterload are maintained. Conclusion: Conditions of hypovolemia and/or hypotension may increase the risk of suction at the highest speeds, irrespective of the native ventricular systolic pressure. However, in vitro guidelines are not directly transferrable to the clinical situation; therefore, patient-specific evaluation is recommended, which can be aided by ultrasonography at various points in the course of support.
Resumo:
Nicholas Petrov. The Monumental Barrows of the Period 700-11 AD in the Russian North-West The research deals with the monumental barrows erected in the Russian north-west in the period of 700-1100 AD, which Russian archaeological literature has traditionally named sopka-barrows. These sopka-barrows were analysed as original sacral and funeral structures and considered in the context of cultural processes under way in that region at the time. The position occupied by the sopka-barrows in the culture of the people who erected them was reconstructed on the basis of a synthesis of various kinds of sources - archaeological, written, folklore. The high barrows are not in fact a determining type of the sites of the so-called "culture of the sopka-barrows" in modern literature, which focuses rather on settlements near to which sopka-barrows are absent. Recent excavations have revealed the presence of "surface" burial places (cremation located on the top of the barrow repeatedly rather than only once) in the majority of the sopka-barrows. The materials only provide evidence about the sacrificial nature of the graves in the "body" of the sopka-barrows. They thus offer an embodiment of one element of the widespread views about the dead man's path to the world of the dead (mountain) which is traced in folklore texts. Special attention was paid to the question of the disappearance of the tradition of erecting sopka-barrows and to the nature of their role in the culture of the region during the period 1000-1200 AD. The functioning of the sopka-barrows as funeral monuments in the second millennium AD is also traced on the inlet inhumatios found in them.
Resumo:
Due to their high thermal efficiency, diesel engines have excellent fuel economy and have been widely used as a power source for many vehicles. Diesel engines emit less greenhouse gases (carbon dioxide) compared with gasoline engines. However, diesel engines emit large amounts of particulate matter (PM) which can imperil human health. The best way to reduce the particulate matter is by using the Diesel Particulate Filter (DPF) system which consists of a wall-flow monolith which can trap particulates, and the DPF can be periodically regenerated to remove the collected particulates. The estimation of the PM mass accumulated in the DPF and total pressure drop across the filter are very important in order to determine when to carry out the active regeneration for the DPF. In this project, by developing a filtration model and a pressure drop model, we can estimate the PM mass and the total pressure drop, then, these two models can be linked with a regeneration model which has been developed previously to predict when to regenerate the filter. There results of this project were: 1 Reproduce a filtration model and simulate the processes of filtration. By studying the deep bed filtration and cake filtration, stages and quantity of mass accumulated in the DPF can be estimated. It was found that the filtration efficiency increases faster during the deep-bed filtration than that during the cake filtration. A “unit collector” theory was used in our filtration model which can explain the mechanism of the filtration very well. 2 Perform a parametric study on the pressure drop model for changes in engine exhaust flow rate, deposit layer thickness, and inlet temperature. It was found that there are five primary variables impacting the pressure drop in the DPF which are temperature gradient along the channel, deposit layer thickness, deposit layer permeability, wall thickness, and wall permeability. 3 Link the filtration model and the pressure drop model with the regeneration model to determine the time to carry out the regeneration of the DPF. It was found that the regeneration should be initiated when the cake layer is at a certain thickness, since a cake layer with either too big or too small an amount of particulates will need more thermal energy to reach a higher regeneration efficiency. 4 Formulate diesel particulate trap regeneration strategies for real world driving conditions to find out the best desirable conditions for DPF regeneration. It was found that the regeneration should be initiated when the vehicle’s speed is high and during which there should not be any stops from the vehicle. Moreover, the regeneration duration is about 120 seconds and the inlet temperature for the regeneration is 710K.