928 resultados para CT MRT Lunge Ventilation Parameter quantitativ ARDS
Resumo:
We study the effect of parameter fluctuations and the resultant multiplicative noise on the synchronization of coupled chaotic systems. We introduce a new quantity, the fluctuation rate Ф as the number of perturbations occurring to the parameter in unit time. It is shown that ϕ is the most significant quantity that determines the quality of synchronization. It is found that parameter fluctuations with high fluctuation rates do not destroy synchronization, irrespective of the statistical features of the fluctuations. We also present a quasi-analytic explanation to the relation between ϕ and the error in synchrony.
Resumo:
Fourier transform methods are employed heavily in digital signal processing. Discrete Fourier Transform (DFT) is among the most commonly used digital signal transforms. The exponential kernel of the DFT has the properties of symmetry and periodicity. Fast Fourier Transform (FFT) methods for fast DFT computation exploit these kernel properties in different ways. In this thesis, an approach of grouping data on the basis of the corresponding phase of the exponential kernel of the DFT is exploited to introduce a new digital signal transform, named the M-dimensional Real Transform (MRT), for l-D and 2-D signals. The new transform is developed using number theoretic principles as regards its specific features. A few properties of the transform are explored, and an inverse transform presented. A fundamental assumption is that the size of the input signal be even. The transform computation involves only real additions. The MRT is an integer-to-integer transform. There are two kinds of redundancy, complete redundancy & derived redundancy, in MRT. Redundancy is analyzed and removed to arrive at a more compact version called the Unique MRT (UMRT). l-D UMRT is a non-expansive transform for all signal sizes, while the 2-D UMRT is non-expansive for signal sizes that are powers of 2. The 2-D UMRT is applied in image processing applications like image compression and orientation analysis. The MRT & UMRT, being general transforms, will find potential applications in various fields of signal and image processing.
Resumo:
The electronic structure and properties of cerium oxides (CeO2 and Ce2O3) have been studied in the framework of the LDA+U and GGA(PW91)+U implementations of density functional theory. The dependence of selected observables of these materials on the effective U parameter has been investigated in detail. The examined properties include lattice constants, bulk moduli, density of states, and formation energies of CeO2 and Ce2O3. For CeO2, the LDA+U results are in better agreement with experiment than the GGA+U results whereas for the computationally more demanding Ce2O3 both approaches give comparable accuracy. Furthermore, as expected, Ce2O3 is much more sensitive to the choice of the U value. Generally, the PW91 functional provides an optimal agreement with experiment at lower U energies than LDA does. In order to achieve a balanced description of both kinds of materials, and also of nonstoichiometric CeO2¿x phases, an appropriate choice of U is suggested for LDA+U and GGA+U schemes. Nevertheless, an optimum value appears to be property dependent, especially for Ce2O3. Optimum U values are found to be, in general, larger than values determined previously in a self-consistent way.
Resumo:
The thesis explores the area of still image compression. The image compression techniques can be broadly classified into lossless and lossy compression. The most common lossy compression techniques are based on Transform coding, Vector Quantization and Fractals. Transform coding is the simplest of the above and generally employs reversible transforms like, DCT, DWT, etc. Mapped Real Transform (MRT) is an evolving integer transform, based on real additions alone. The present research work aims at developing new image compression techniques based on MRT. Most of the transform coding techniques employ fixed block size image segmentation, usually 8×8. Hence, a fixed block size transform coding is implemented using MRT and the merits and demerits are analyzed for both 8×8 and 4×4 blocks. The N2 unique MRT coefficients, for each block, are computed using templates. Considering the merits and demerits of fixed block size transform coding techniques, a hybrid form of these techniques is implemented to improve the performance of compression. The performance of the hybrid coder is found to be better compared to the fixed block size coders. Thus, if the block size is made adaptive, the performance can be further improved. In adaptive block size coding, the block size may vary from the size of the image to 2×2. Hence, the computation of MRT using templates is impractical due to memory requirements. So, an adaptive transform coder based on Unique MRT (UMRT), a compact form of MRT, is implemented to get better performance in terms of PSNR and HVS The suitability of MRT in vector quantization of images is then experimented. The UMRT based Classified Vector Quantization (CVQ) is implemented subsequently. The edges in the images are identified and classified by employing a UMRT based criteria. Based on the above experiments, a new technique named “MRT based Adaptive Transform Coder with Classified Vector Quantization (MATC-CVQ)”is developed. Its performance is evaluated and compared against existing techniques. A comparison with standard JPEG & the well-known Shapiro’s Embedded Zero-tree Wavelet (EZW) is done and found that the proposed technique gives better performance for majority of images
Resumo:
In den vorliegenden Untersuchungen wurde der Gehalt von Carotinoiden in Weizen, Mais und Möhren sowie der Polyphenolgehalt in Möhren mit analytischen Methoden zum Nachweis dieser Substanzen gemessen. Der Gehalt der Carotinoide in Mais und der Gehalt der phenolischen Bestandteile in Möhren wurde mit Messungen mittels HPLC-Analytik gemessen. Die Methoden wurden aus literaturbekannten Verfahren abgeleitet und an die Anforderungen der untersuchten Probenmatrices angepasst und validiert. Dem Verfahren lag die Frage zugrunde, ob es möglich ist, Kulturpflanzen aus verschiedenen Anbausystemen auf der Basis des Gehaltes bestimmter sekundärer Pflanzeninhaltsstoffe zu differenzieren und aufgrund von Unterschieden im Gehalt der sekundären Pflanzeninhaltsstoffe zu klassifizieren. Die Gesamtverfahren wurden dabei gemäß der ISO 17025 validiert. Für die Messungen standen Proben aus definierten Langzeitversuchen und Erzeugerproben ausgesuchter ökologisch bzw. konventionell arbeitender Anbaubetriebe zur Verfügung. Als Grundlage für eine valide Methodeneinschätzung wurden die Messungen an codierten Proben vorgenommen. Eine Decodierung der Proben erfolgte erst nach der Vorlage der Messergebnisse in den genannten Projekten. Die Messung und Auswertung des Carotinoidgehaltes in Weizen, Mais und Möhren vor dem Hintergrund der Differenzierung und Klassifizierung erfolgte in Proben eines Erntejahres. Die Messung des Gehaltes phenolischer Substanzen in Möhren erfolgte in Möhren aus 3 Erntejahren. Die verwendeten HPLC-Verfahren konnten in Bezug auf den analytischen Teil der Messungen in den einzelnen Verfahrensschritten Linearität, Spezifität, Präzision und Robustheit erfolgreich überprüft werden. Darüber hinaus wurden wichtige Einflussgrößen auf die Messungen bestimmt. Für die Verfahren zur photometrischen Bestimmung der Gesamtcarotinoide konnte eine Grundkalibrierung der Parameter Präzision und Linearität des Verfahrens erfolgreich durchgeführt werden. Während der Anwendung der HPLC-Methoden an codierten Proben konnten in allen untersuchten Probenmatrices quantitativ bedeutende Inhaltsstoffe nachgewiesen und identifiziert werden. Eine vollständige Identifizierung aller dargestellten Peaks konnte in den Untersuchungen der Polyphenole in Möhren und der Carotinoide in Mais nicht erfolgen. Im Hinblick auf die Frage nach der Differenzierung und Klassifizierung ergab sich in den verschiedenen Proben ein unterschiedliches Bild. Sowohl durch den Carotinoid- als auch den Polyphenolgehalt konnten einzelne Proben statistisch signifikant differenziert werden. Die Trennleistung hing dabei sowohl von den jeweiligen Komponenten als auch von der untersuchten Probenmatrix ab. Ein durchgängig höherer Gehalt sekundärer Pflanzeninhaltsstoffe in Proben aus ökologischem Anbau konnte nicht bestätigt werden. Für die Klassifizierung der Proben verschiedener Anbauvarianten und konnten multivariate statistische Methoden, wie lineare Diskriminantenanalyse (LDA) und Classification and Regression Tree (CART), erfolgreich angewandt werden. Eine Klassifizierung mit unterschiedlichen statistischen Verfahren erbrachte dabei unterschiedliche Ergebnisse. In der Klassifizierung der decodierten Proben mittels LDA wirkten sich die Faktoren Sorte und Standort stärker auf das Klassifizierungsergebnis aus als der Faktor Anbausystem. Eine Klassifizierung der decodierten Proben nach dem Anbausystem wurde mit dem CART-Verfahren durchgeführt. Auf dieser Basis wurden für die Polyphenole in Möhren 97 % der Proben richtig klassifiziert. Durch die Messwerte des Carotinoidgehaltes und des Luteingehaltes in Weizen konnte der größere Teil der Proben (90 %) korrekt klassifiziert werden. Auf der Basis des Carotinoidgehaltes in Mais wurde der Großteil der Proben (95 %) korrekt nach dem Anbausystem klassifiziert. Auf der Basis des mittels HPLC gemessenen Carotinoidgehaltes in Möhren konnten die Proben 97 % korrekt klassifiziert werden (97 %). Insgesamt erscheint der Grundgedanke der Klassifizierung durch den Gehalt sekundärer Pflanzeninhaltsstoffe vielversprechend. Durch die vielfältigen Einflussgrößen auf den Sekundärstoffwechsel von Pflanzen müssten Veränderungen, die durch Sorte und Standort auftreten, über mehrere Jahre erhoben und systematisiert werden.
Resumo:
Diese Arbeit beschäftigt sich mit der Herstellung und Anwendungen von periodischen Goldnanopartikel-Arrays (PPAs), die mit Hilfe von Nanosphären-Lithografie hergestellt wurden. In Abhängigkeit der verwendeten Nanosphären-Größe wurden dabei entweder kleine dreieckige Nanopartikel (NP) (bei Verwendung von Nanosphären mit einem Durchmesser von 330 nm) oder große dreieckige NPD sowie leicht gestreckte NP (bei Verwendung von Nanosphären mit einem Durchmesser von 1390 nm) hergestellt. Die Charakterisierung der PPAs erfolgte mit Hilfe von Rasterkraftmikroskopie, Rasterelektronenmikroskopie und optischer Spektroskopie. Die kleinen NP besitzen ein Achsverhältnis (AV) von 2,47 (Kantenlänge des NPs: (74+/-6) nm, Höhe: (30+/-4) nm. Die großen dreieckigen NP haben ein AV von 3 (Kantenlänge des NPs:(465+/-27) nm, Höhe: (1530+/-10) nm) und die leicht gestreckten NP (die aufgrund der Ausbildung von Doppelschichten ebenfalls auf der gleichen Probe erzeugt wurden) haben eine Länge von (364+/-16)nm, eine Breite von (150+/-20) nm und eine Höhe von (150+/-10)nm. Die optischen Eigenschaften dieser NP werden durch lokalisierte Oberflächenplasmon-Polariton Resonanzen (LPPRs) dominiert, d.h. von einem eingestrahlten elektromagnetischen Feld angeregte kollektive Schwingungen der Leitungsbandelektronen. In dieser Arbeit wurden drei signifikante Herausforderungen für Plasmonik-Anwendungen bearbeitet, welche die einzigartigen optischen Eigenschaften dieser NP ausnutzen. Erstens wurden Ergebnisse der selektiven und präzisen Größenmanipulation und damit einer Kontrolle der interpartikulären Abstände von den dreieckigen Goldnanopartikel mit Hilfe von ns-gepulstem Laserlicht präsentiert. Die verwendete Methode basiert hierbei auf der Größen- und Formabhängigkeit der LPPRs der NP. Zweitens wurde die sensorischen Fähigkeiten von Gold-NP ausgenutzt, um die Bildung von molekularen Drähten auf den PPAs durch schrittweise Zugabe von unterschiedlichen molekularen Spezies zu untersuchen. Hierbei wurde die Verschiebung der LSPPR in den optischen Spektren dazu ausgenutzt, die Bildung der Nanodrähte zu überwachen. Drittens wurden Experimente vorgestellt, die sich die lokale Feldverstärkung von NP zu nutze machen, um eine hochgeordnete Nanostrukturierung von Oberflächen mittels fs-gepulstem Laserlicht zu bewerkstelligen. Dabei zeigt sich, dass neben der verwendeten Fluenz die Polarisationsrichtung des eingestrahlten Laserlichts in Bezug zu der NP-Orientierung sowie die Größe der NP äußerst wichtige Parameter für die Nanostrukturierung darstellen. So konnten z.B. Nanolöcher erzeugt werden, die bei höheren Fluenzen zu Nanogräben und Nanokanälen zusammen wuchsen. Zusammengefasst lässt sich sagen, dass die in dieser Arbeit gewonnen Ergebnisse von enormer Wichtigkeit für weitere Anwendungen sind.
Resumo:
Zur Abbildung heterogener Standorteigenschaften und Ertragspotenziale werden zunehmend flächenhafte Daten nachgefragt. Insbesondere für Grünland, das häufig durch ausgeprägte Standortheterogenität gekennzeichnet ist, ergeben sich hohe Anforderungen an die Wiedergabequalität, denn die realen Verhältnisse sollen in praktikabler Weise möglichst exakt abgebildet werden. Außerdem können flächenhafte Daten genutzt werden, um Zusammenhänge zwischen teilflächenspezifischen Standorteigenschaften und Grünlandaspekten detaillierter zu analysieren und bisher nicht erkannte Wechselbeziehungen nachzuweisen. Für mitteleuropäisches Grünland lagen zu Beginn dieser Arbeit derartige räumliche Untersuchungen nicht oder nur in Teilaspekten vor. Diese Arbeit befasste sich mit der Analyse von Wirkungsbeziehungen zwischen Standort- und Grünlandmerkmalen auf einer im Nordhessischen Hügelland (Deutschland) weitgehend praxisüblicher bewirtschafteten 20 ha großen Weidefläche. Erhoben wurden als Standortfaktoren die Geländemorphologie, die Bodentextur, die Grundnährstoffgehalten sowie als Parameter des Grünlandbestandes die botanische Zusammensetzung, der Ertrag und die Qualitätsparameter. Sie wurden sowohl in einem 50 m-Raster ganzflächig, als auch auf drei 50x50 m großen Teilflächen in erhöhter Beprobungsdichte (6,25 m-Rasterweite) aufgenommen. Die relevanten Fragestellungen zielen auf die räumliche und zeitliche Variabilität von Grünlandbestandesparametern innerhalb von Grünlandflächen sowie deren Abhängigkeit von den Standortfaktoren. Ein weiterer Schwerpunkt war die Überprüfung der Frage, ob die reale Variabilität der Zielvariablen durch die Interpolierung der punktuell erfassten Daten wiedergegeben werden kann. Die Beziehungen zwischen Standort- und Grünlandmerkmalen wurden mit monokausalen und multivariaten Ansätzen untersucht. Die Ergebnisse ließen, unabhängig vom Jahreseinfluss, bereits bestimmte Zusammenhänge zwischen botanischer Zusammensetzung und Standort, auch auf dem untersuchten kleinen Maßstab innerhalb der Grünlandfläche, finden. Demzufolge können unterschiedliche Areale abgegrenzt und charakterisiert werden, die als Grundlage für Empfehlungen zur Ausweisung von Arealen zur teilspezifischen Bewirtschaftung erarbeitet wurden. Die Validierung der interpolierten Daten zeigte, dass die 50-m Rasterbeprobung nur eine begrenzte Wiedergabe der räumlichen Variabilität ermöglicht. Inwieweit derartige Beziehungen quantitativ genauer beschreibbar sind, bleibt auf Grund der verbliebenen unerklärten Varianz im Datensatz dieser Studie offen.
Resumo:
In der funktionellen Proteomforschung werden bekannte Interaktionen eines zellulären Netzwerkes qualitativ untersucht. Diese Veröffentlichung beschreibt verschiedene biomolekulare Interaktionsanalysen, anhand des Modellsystems PKA, die zur detaillierten Charakterisierung von Bindungen herangezogen werden können. Neben den Gleichgewichtsbindungsdaten (generiert aus AlphaScreen, FP, SPR und ITC Messungen) wurden aus ITC Messungen die thermodynamischen Parameter G, H und S ermittelt. Durch Anwendung der BRET2 (Bioluminescence resonance energy transfer) Methode konnten in lebenden Zellen Aussagen über Bindungsereignisse und deren Lokalisation getroffen werden.
Resumo:
Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.
Resumo:
Auf dem Gebiet der Strukturdynamik sind computergestützte Modellvalidierungstechniken inzwischen weit verbreitet. Dabei werden experimentelle Modaldaten, um ein numerisches Modell für weitere Analysen zu korrigieren. Gleichwohl repräsentiert das validierte Modell nur das dynamische Verhalten der getesteten Struktur. In der Realität gibt es wiederum viele Faktoren, die zwangsläufig zu variierenden Ergebnissen von Modaltests führen werden: Sich verändernde Umgebungsbedingungen während eines Tests, leicht unterschiedliche Testaufbauten, ein Test an einer nominell gleichen aber anderen Struktur (z.B. aus der Serienfertigung), etc. Damit eine stochastische Simulation durchgeführt werden kann, muss eine Reihe von Annahmen für die verwendeten Zufallsvariablengetroffen werden. Folglich bedarf es einer inversen Methode, die es ermöglicht ein stochastisches Modell aus experimentellen Modaldaten zu identifizieren. Die Arbeit beschreibt die Entwicklung eines parameter-basierten Ansatzes, um stochastische Simulationsmodelle auf dem Gebiet der Strukturdynamik zu identifizieren. Die entwickelte Methode beruht auf Sensitivitäten erster Ordnung, mit denen Parametermittelwerte und Kovarianzen des numerischen Modells aus stochastischen experimentellen Modaldaten bestimmt werden können.
Resumo:
Aus den im Rahmen dieser Forschungsarbeit empirisch gewonnenen Erkenntnissen werden Gestaltungsempfehlungen für das Public Debt Management abgeleitet. Diese zeigen, dass ein wirtschaftliches Public Debt Management nicht ein ausschließlich kostenminimierendes (sparsames), sondern ein kosten-risiko-optimales Public Debt Management mit effektiven internen und externen Überwachungsinstrumenten und wirksamer externer Finanzkontrolle sein muss.
Resumo:
This report examines how to estimate the parameters of a chaotic system given noisy observations of the state behavior of the system. Investigating parameter estimation for chaotic systems is interesting because of possible applications for high-precision measurement and for use in other signal processing, communication, and control applications involving chaotic systems. In this report, we examine theoretical issues regarding parameter estimation in chaotic systems and develop an efficient algorithm to perform parameter estimation. We discover two properties that are helpful for performing parameter estimation on non-structurally stable systems. First, it turns out that most data in a time series of state observations contribute very little information about the underlying parameters of a system, while a few sections of data may be extraordinarily sensitive to parameter changes. Second, for one-parameter families of systems, we demonstrate that there is often a preferred direction in parameter space governing how easily trajectories of one system can "shadow'" trajectories of nearby systems. This asymmetry of shadowing behavior in parameter space is proved for certain families of maps of the interval. Numerical evidence indicates that similar results may be true for a wide variety of other systems. Using the two properties cited above, we devise an algorithm for performing parameter estimation. Standard parameter estimation techniques such as the extended Kalman filter perform poorly on chaotic systems because of divergence problems. The proposed algorithm achieves accuracies several orders of magnitude better than the Kalman filter and has good convergence properties for large data sets.
Resumo:
The registration of pre-operative volumetric datasets to intra- operative two-dimensional images provides an improved way of verifying patient position and medical instrument loca- tion. In applications from orthopedics to neurosurgery, it has a great value in maintaining up-to-date information about changes due to intervention. We propose a mutual information- based registration algorithm to establish the proper align- ment. For optimization purposes, we compare the perfor- mance of the non-gradient Powell method and two slightly di erent versions of a stochastic gradient ascent strategy: one using a sparsely sampled histogramming approach and the other Parzen windowing to carry out probability density approximation. Our main contribution lies in adopting the stochastic ap- proximation scheme successfully applied in 3D-3D registra- tion problems to the 2D-3D scenario, which obviates the need for the generation of full DRRs at each iteration of pose op- timization. This facilitates a considerable savings in compu- tation expense. We also introduce a new probability density estimator for image intensities via sparse histogramming, de- rive gradient estimates for the density measures required by the maximization procedure and introduce the framework for a multiresolution strategy to the problem. Registration results are presented on uoroscopy and CT datasets of a plastic pelvis and a real skull, and on a high-resolution CT- derived simulated dataset of a real skull, a plastic skull, a plastic pelvis and a plastic lumbar spine segment.
Resumo:
We present a technique for the rapid and reliable evaluation of linear-functional output of elliptic partial differential equations with affine parameter dependence. The essential components are (i) rapidly uniformly convergent reduced-basis approximations — Galerkin projection onto a space WN spanned by solutions of the governing partial differential equation at N (optimally) selected points in parameter space; (ii) a posteriori error estimation — relaxations of the residual equation that provide inexpensive yet sharp and rigorous bounds for the error in the outputs; and (iii) offline/online computational procedures — stratagems that exploit affine parameter dependence to de-couple the generation and projection stages of the approximation process. The operation count for the online stage — in which, given a new parameter value, we calculate the output and associated error bound — depends only on N (typically small) and the parametric complexity of the problem. The method is thus ideally suited to the many-query and real-time contexts. In this paper, based on the technique we develop a robust inverse computational method for very fast solution of inverse problems characterized by parametrized partial differential equations. The essential ideas are in three-fold: first, we apply the technique to the forward problem for the rapid certified evaluation of PDE input-output relations and associated rigorous error bounds; second, we incorporate the reduced-basis approximation and error bounds into the inverse problem formulation; and third, rather than regularize the goodness-of-fit objective, we may instead identify all (or almost all, in the probabilistic sense) system configurations consistent with the available experimental data — well-posedness is reflected in a bounded "possibility region" that furthermore shrinks as the experimental error is decreased.