881 resultados para Linear Analytical Systems
Resumo:
The interplay of hydrodynamic and electrostatic forces is of great importance for the understanding of colloidal dispersions. Theoretical descriptions are often based on the so called standard electrokinetic model. This Mean Field approach combines the Stokes equation for the hydrodynamic flow field, the Poisson equation for electrostatics and a continuity equation describing the evolution of the ion concentration fields. In the first part of this thesis a new lattice method is presented in order to efficiently solve the set of non-linear equations for a charge-stabilized colloidal dispersion in the presence of an external electric field. Within this framework, the research is mainly focused on the calculation of the electrophoretic mobility. Since this transport coefficient is independent of the electric field only for small driving, the algorithm is based upon a linearization of the governing equations. The zeroth order is the well known Poisson-Boltzmann theory and the first order is a coupled set of linear equations. Furthermore, this set of equations is divided into several subproblems. A specialized solver for each subproblem is developed, and various tests and applications are discussed for every particular method. Finally, all solvers are combined in an iterative procedure and applied to several interesting questions, for example, the effect of the screening mechanism on the electrophoretic mobility or the charge dependence of the field-induced dipole moment and ion clouds surrounding a weakly charged sphere. In the second part a quantitative data analysis method is developed for a new experimental approach, known as "Total Internal Reflection Fluorescence Cross-Correlation Spectroscopy" (TIR-FCCS). The TIR-FCCS setup is an optical method using fluorescent colloidal particles to analyze the flow field close to a solid-fluid interface. The interpretation of the experimental results requires a theoretical model, which is usually the solution of a convection-diffusion equation. Since an analytic solution is not available due to the form of the flow field and the boundary conditions, an alternative numerical approach is presented. It is based on stochastic methods, i. e. a combination of a Brownian Dynamics algorithm and Monte Carlo techniques. Finally, experimental measurements for a hydrophilic surface are analyzed using this new numerical approach.
Resumo:
Theories and numerical modeling are fundamental tools for understanding, optimizing and designing present and future laser-plasma accelerators (LPAs). Laser evolution and plasma wave excitation in a LPA driven by a weakly relativistically intense, short-pulse laser propagating in a preformed parabolic plasma channel, is studied analytically in 3D including the effects of pulse steepening and energy depletion. At higher laser intensities, the process of electron self-injection in the nonlinear bubble wake regime is studied by means of fully self-consistent Particle-in-Cell simulations. Considering a non-evolving laser driver propagating with a prescribed velocity, the geometrical properties of the non-evolving bubble wake are studied. For a range of parameters of interest for laser plasma acceleration, The dependence of the threshold for self-injection in the non-evolving wake on laser intensity and wake velocity is characterized. Due to the nonlinear and complex nature of the Physics involved, computationally challenging numerical simulations are required to model laser-plasma accelerators operating at relativistic laser intensities. The numerical and computational optimizations, that combined in the codes INF&RNO and INF&RNO/quasi-static give the possibility to accurately model multi-GeV laser wakefield acceleration stages with present supercomputing architectures, are discussed. The PIC code jasmine, capable of efficiently running laser-plasma simulations on Graphics Processing Units (GPUs) clusters, is presented. GPUs deliver exceptional performance to PIC codes, but the core algorithms had to be redesigned for satisfying the constraints imposed by the intrinsic parallelism of the architecture. The simulation campaigns, run with the code jasmine for modeling the recent LPA experiments with the INFN-FLAME and CNR-ILIL laser systems, are also presented.
Resumo:
This Thesis aims at building and discussing mathematical models applications focused on Energy problems, both on the thermal and electrical side. The objective is to show how mathematical programming techniques developed within Operational Research can give useful answers in the Energy Sector, how they can provide tools to support decision making processes of Companies operating in the Energy production and distribution and how they can be successfully used to make simulations and sensitivity analyses to better understand the state of the art and convenience of a particular technology by comparing it with the available alternatives. The first part discusses the fundamental mathematical background followed by a comprehensive literature review about mathematical modelling in the Energy Sector. The second part presents mathematical models for the District Heating strategic network design and incremental network design. The objective is the selection of an optimal set of new users to be connected to an existing thermal network, maximizing revenues, minimizing infrastructure and operational costs and taking into account the main technical requirements of the real world application. Results on real and randomly generated benchmark networks are discussed with particular attention to instances characterized by big networks dimensions. The third part is devoted to the development of linear programming models for optimal battery operation in off-grid solar power schemes, with consideration of battery degradation. The key contribution of this work is the inclusion of battery degradation costs in the optimisation models. As available data on relating degradation costs to the nature of charge/discharge cycles are limited, we concentrate on investigating the sensitivity of operational patterns to the degradation cost structure. The objective is to investigate the combination of battery costs and performance at which such systems become economic. We also investigate how the system design should change when battery degradation is taken into account.
Resumo:
Eine der offenen Fragen der aktuellen Physik ist das Verständnis von Systemen im Nichtgleichgewicht. Im Gegensatz zu der Gleichgewichtsphysik ist in diesem Bereich aktuell kein Formalismus bekannt der ein systematisches Beschreiben der unterschiedlichen Systeme ermöglicht. Um das Verständnis über diese Systeme zu vergrößern werden in dieser Arbeit zwei unterschiedliche Systeme studiert, die unter einem externen Feld ein starkes nichtlineares Verhalten zeigen. Hierbei handelt es sich zum einen um das Verhalten von Teilchen unter dem Einfluss einer extern angelegten Kraft und zum anderen um das Verhalten eines Systems in der Nähe des kritischen Punktes unter Scherung. Das Modellsystem in dem ersten Teil der Arbeit ist eine binäre Yukawa Mischung, die bei tiefen Temperaturen einen Glassübergang zeigt. Dies führt zu einer stark ansteigenden Relaxationszeit des Systems, so dass man auch bei kleinen Kräften relativ schnell ein nichtlineares Verhalten beobachtet. In Abhängigkeit der angelegten konstanten Kraft können in dieser Arbeit drei Regime, mit stark unterschiedlichem Teilchenverhalten, identifiziert werden. In dem zweiten Teil der Arbeit wird das Ising-Modell unter Scherung betrachtet. In der Nähe des kritischen Punkts kommt es in diesem Modell zu einer Beeinflussung der Fluktuationen in dem System durch das angelegte Scherfeld. Dies hat zur Folge, dass das System stark anisotrop wird und man zwei unterschiedliche Korrelationslängen vorfindet, die mit unterschiedlichen Exponenten divergieren. Infolgedessen lässt sich der normale isotrope Formalismus des "finite-size scaling" nicht mehr auf dieses System anwenden. In dieser Arbeit wird gezeigt, wie dieser auf den anisotropen Fall zu verallgemeinern ist und wie damit die kritischen Punkte, sowie die dazu gehörenden kritischen Exponenten berechnet werden können.
Resumo:
In this work I reported recent results in the field of Statistical Mechanics of Equilibrium, and in particular in Spin Glass models and Monomer Dimer models . We start giving the mathematical background and the general formalism for Spin (Disordered) Models with some of their applications to physical and mathematical problems. Next we move on general aspects of the theory of spin glasses, in particular to the Sherrington-Kirkpatrick model which is of fundamental interest for the work. In Chapter 3, we introduce the Multi-species Sherrington-Kirkpatrick model (MSK), we prove the existence of the thermodynamical limit and the Guerra's Bound for the quenched pressure together with a detailed analysis of the annealed and the replica symmetric regime. The result is a multidimensional generalization of the Parisi's theory. Finally we brie y illustrate the strategy of the Panchenko's proof of the lower bound. In Chapter 4 we discuss the Aizenmann-Contucci and the Ghirlanda-Guerra identities for a wide class of Spin Glass models. As an example of application, we discuss the role of these identities in the proof of the lower bound. In Chapter 5 we introduce the basic mathematical formalism of Monomer Dimer models. We introduce a Gaussian representation of the partition function that will be fundamental in the rest of the work. In Chapter 6, we introduce an interacting Monomer-Dimer model. Its exact solution is derived and a detailed study of its analytical properties and related physical quantities is performed. In Chapter 7, we introduce a quenched randomness in the Monomer Dimer model and show that, under suitable conditions the pressure is a self averaging quantity. The main result is that, if we consider randomness only in the monomer activity, the model is exactly solvable.
Resumo:
In this thesis, we consider the problem of solving large and sparse linear systems of saddle point type stemming from optimization problems. The focus of the thesis is on iterative methods, and new preconditioning srategies are proposed, along with novel spectral estimtates for the matrices involved.
Ultrasensitive chemiluminescence bioassays based on microfluidics in miniaturized analytical devices
Resumo:
The activity carried out during my PhD was principally addressed to the development of portable microfluidic analytical devices based on biospecific molecular recognition reactions and CL detection. In particular, the development of biosensors required the study of different materials and procedures for their construction, with particular attention to the development of suitable immobilization procedures, fluidic systems and the selection of the suitable detectors. Different methods were exploited, such as gene probe hybridization assay or immunoassay, based on different platform (functionalized glass slide or nitrocellulose membrane) trying to improve the simplicity of the assay procedure. Different CL detectors were also employed and compared with each other in the search for the best compromise between portability and sensitivity. The work was therefore aimed at miniaturization and simplification of analytical devices and the study involved all aspects of the system, from the analytical methodology to the type of detector, in order to combine high sensitivity with easiness-of-use and rapidity. The latest development involving the use of smartphone as chemiluminescent detector paves the way for a new generation of analytical devices in the clinical diagnostic field thanks to the ideal combination of sensibility a simplicity of the CL with the day-by-day increase in the performance of the new generation smartphone camera. Moreover, the connectivity and data processing offered by smartphones can be exploited to perform analysis directly at home with simple procedures. The system could eventually be used to monitor patient health and directly notify the physician of the analysis results allowing a decrease in costs and an increase in the healthcare availability and accessibility.
Resumo:
Die Dissertationsschrift beschäftigt sich mit der Entwicklung und Anwendung einer alternativen Probenzuführungstechnik für flüssige Proben in der Massenspektrometrie. Obwohl bereits einige Anstrengungen zur Verbesserung unternommen wurden, weisen konventionelle pneumatische Zerstäuber- und Sprühkammersysteme, die in der Elementspurenanalytik mittels induktiv gekoppeltem Plasma (ICP) standardmäßig verwendet werden, eine geringe Gesamteffizienz auf. Pneumatisch erzeugtes Aerosol ist durch eine breite Tropfengrößenverteilung gekennzeichnet, was den Einsatz einer Sprühkammer bedingt, um die Aerosolcharakteristik an die Betriebsbedingungen des ICPs anzupassen.. Die Erzeugung von Tropfen mit einer sehr engen Tropfengrößenverteilung oder sogar monodispersen Tropfen könnte die Effizienz des Probeneintrags verbessern. Ein Ziel dieser Arbeit ist daher, Tropfen, die mittels des thermischen Tintenstrahldruckverfahrens erzeugt werden, zum Probeneintrag in der Elementmassenspektrometrie einzusetzen. Das thermische Tintenstrahldruckverfahren konnte in der analytischen Chemie im Bereich der Oberflächenanalytik mittels TXRF oder Laserablation bisher zur gezielten, reproduzierbaren Deposition von Tropfen auf Oberflächen eingesetzt werden. Um eine kontinuierliche Tropfenerzeugung zu ermöglichen, wurde ein elektronischer Mikrokontroller entwickelt, der eine Dosiereinheit unabhängig von der Hard- und Software des Druckers steuern kann. Dabei sind alle zur Tropfenerzeugung relevanten Parameter (Frequenz, Heizpulsenergie) unabhängig voneinander einstellbar. Die Dosiereinheit, der "drop-on-demand" Aerosolgenerator (DOD), wurde auf eine Aerosoltransportkammer montiert, welche die erzeugten Tropfen in die Ionisationsquelle befördert. Im Bereich der anorganischen Spurenanalytik konnten durch die Kombination des DOD mit einem automatischen Probengeber 53 Elemente untersucht und die erzielbare Empfindlichkeiten sowie exemplarisch für 15 Elemente die Nachweisgrenzen und die Untergrundäquivalentkonzentrationen ermittelt werden. Damit die Vorteile komfortabel genutzt werden können, wurde eine Kopplung des DOD-Systems mit der miniaturisierten Fließinjektionsanalyse (FIA) sowie miniaturisierten Trenntechniken wie der µHPLC entwickelt. Die Fließinjektionsmethode wurde mit einem zertifizierten Referenzmaterial validiert, wobei für Vanadium und Cadmium die zertifizierten Werte gut reproduziert werden konnten. Transiente Signale konnten bei der Kopplung des Dosiersystems in Verbindung mit der ICP-MS an eine µHPLC abgebildet werden. Die Modifikation der Dosiereinheit zum Ankoppeln an einen kontinuierlichen Probenfluss bedarf noch einer weiteren Reduzierung des verbleibenden Totvolumens. Dazu ist die Unabhängigkeit von den bisher verwendeten, kommerziell erhältlichen Druckerpatronen anzustreben, indem die Dosiereinheit selbst gefertigt wird. Die Vielseitigkeit des Dosiersystems wurde mit der Kopplung an eine kürzlich neu entwickelte Atmosphärendruck-Ionisationsmethode, die "flowing atmospheric-pressure afterglow" Desorptions/Ionisations Ionenquelle (FAPA), aufgezeigt. Ein direkter Eintrag von flüssigen Proben in diese Quelle war bislang nicht möglich, es konnte lediglich eine Desorption von eingetrockneten Rückständen oder direkt von der Flüssigkeitsoberfläche erfolgen. Die Präzision der Analyse ist dabei durch die variable Probenposition eingeschränkt. Mit dem Einsatz des DOD-Systems können flüssige Proben nun direkt in die FAPA eingetragen, was ebenfalls das Kalibrieren bei quantitativen Analysen organischer Verbindungen ermöglicht. Neben illegalen Drogen und deren Metaboliten konnten auch frei verkäufliche Medikamente und ein Sprengstoffanalogon in entsprechend präpariertem reinem Lösungsmittel nachgewiesen werden. Ebenso gelang dies in Urinproben, die mit Drogen und Drogenmetaboliten versetzt wurden. Dabei ist hervorzuheben, dass keinerlei Probenvorbereitung notwendig war und zur Ermittlung der NWG der einzelnen Spezies keine interne oder isotopenmarkierte Standards verwendet wurden. Dennoch sind die ermittelten NWG deutlich niedriger, als die mit der bisherigen Prozedur zur Analyse flüssiger Proben erreichbaren. Um im Vergleich zu der bisher verwendeten "pin-to-plate" Geometrie der FAPA die Lösungsmittelverdampfung zu beschleunigen, wurde eine alternative Elektrodenanordnung entwickelt, bei der die Probe länger in Kontakt mit der "afterglow"-Zone steht. Diese Glimmentladungsquelle ist ringförmig und erlaubt einen Probeneintrag mittels eines zentralen Gasflusses. Wegen der ringförmigen Entladung wird der Name "halo-FAPA" (h-FAPA) für diese Entladungsgeometrie verwendet. Eine grundlegende physikalische und spektroskopische Charakterisierung zeigte, dass es sich tatsächlich um eine FAPA Desorptions/Ionisationsquelle handelt.
Resumo:
Die pneumatische Zerstäubung ist die häufigste Methode der Probenzuführung von Flüssigkeiten in der Plasmaspektrometrie. Trotz der bekannten Limitierungen dieser Systeme, wie die hohen Probenverluste, finden diese Zerstäuber aufgrund ihrer guten Robustheit eine breite Anwendung. Die flussratenabhängige Aerosolcharakteristik und pumpenbasierte Signalschwankungen limitieren bisher Weiterentwicklungen. Diese Probleme werden umso gravierender, je weiter die notwendige Miniaturisierung dieser Systeme fortschreitet. Der neuartige Ansatz dieser Arbeit basiert auf dem Einsatz modifizierter Inkjet-Druckerpatronen für die Dosierung von pL-Tropfen. Ein selbst entwickelter Mikrokontroller ermöglicht den Betrieb von matrixkodierten Patronen des Typs HP45 mit vollem Zugriff auf alle essentiellen Betriebsparameter. Durch die neuartige Aerosoltransportkammer gelang die effiziente Kopplung des Tropfenerzeugungssystems an ein ICP-MS. Das so aufgebaute drop-on-demand-System (DOD) zeigt im Vergleich zu herkömmlichen und miniaturisierten Zerstäubern eine deutlich gesteigerte Empfindlichkeit (8 - 18x, elementabhängig) bei leicht erhöhtem, aber im Grunde vergleichbarem Signalrauschen. Darüber hinaus ist die Flexibilität durch die große Zahl an Freiheitsgraden des Systems überragend. So ist die Flussrate über einen großen Bereich variabel (5 nL - 12,5 µL min-1), ohne dabei die primäre Aerosolcharakteristik zu beeinflussen, welche vom Nutzer durch Wahl der elektrischen Parameter bestimmt wird. Das entwickelte Probenzuführungssystem ist verglichen mit dem pneumatischen Referenzsystem weniger anfällig gegenüber Matrixeffekten beim Einsatz von realen Proben mit hohen Anteilen gelöster Substanzen. So gelingt die richtige Quantifizierung von fünf Metallen im Spurenkonzentrationsbereich (Li, Sr, Mo, Sb und Cs) in nur 12 µL Urin-Referenzmaterial mittels externer Kalibrierung ohne Matrixanpassung. Wohingegen beim pneumatischen Referenzsystem die aufwändigere Standardadditionsmethode sowie über 250 µL Probenvolumen für eine akkurate Bestimmung der Analyten nötig sind. Darüber hinaus wird basierend auf der Dosierfrequenz eines dualen DOD-Systems eine neuartige Kalibrierstrategie vorgestellt. Bei diesem Ansatz werden nur eine Standard- und eine Blindlösung anstelle einer Reihe unterschiedlich konzentrierter Standards benötigt, um eine lineare Kalibrierfunktion zu erzeugen. Zusätzlich wurde mittels selbst entwickelter, zeitlich aufgelöster ICP-MS umfangreiche Rauschspektren aufgenommen. Aus diesen gelang die Ermittlung der Ursache des erhöhten Signalrauschens des DOD, welches maßgeblich durch das zeitlich nicht äquidistante Eintreffen der Tropfen am Detektor verursacht wird. Diese Messtechnik erlaubt auch die Detektion einzeln zugeführter Tropfen, wodurch ein Vergleich der Volumenverteilung der mittels ICP-MS detektierten, gegenüber den generierten und auf optischem Wege charakterisierten Tropfen möglich wurde. Dieses Werkzeug ist für diagnostische Untersuchungen äußerst hilfreich. So konnte aus diesen Studien neben der Aufklärung von Aerosoltransportprozessen die Transporteffizienz des DOD ermittelt werden, welche bis zu 94 Vol.-% beträgt.
Resumo:
Wireless sensor networks (WSNs) consist of a large number of sensor nodes, characterized by low power constraint, limited transmission range and limited computational capabilities [1][2].The cost of these devices is constantly decreasing, making it possible to use a large number of sensor devices in a wide array of commercial, environmental, military, and healthcare fields. Some of these applications involve placing the sensors evenly spaced on a straight line for example in roads, bridges, tunnels, water catchments and water pipelines, city drainages, oil and gas pipelines etc., making a special class of these networks which we define as a Linear Wireless Network (LWN). In LWNs, data transmission happens hop by hop from the source to the destination, through a route composed of multiple relays. The peculiarity of the topology of LWNs, motivates the design of specialized protocols, taking advantage of the linearity of such networks, in order to increase reliability, communication efficiency, energy savings, network lifetime and to minimize the end-to-end delay [3]. In this thesis a novel contention based Medium Access Control (MAC) protocol called L-CSMA, specifically devised for LWNs is presented. The basic idea of L-CSMA is to assign different priorities to nodes based on their position along the line. The priority is assigned in terms of sensing duration, whereby nodes closer to the destination are assigned shorter sensing time compared to the rest of the nodes and hence higher priority. This mechanism speeds up the transmission of packets which are already in the path, making transmission flow more efficient. Using NS-3 simulator, the performance of L-CSMA in terms of packets success rate, that is, the percentage of packets that reach destination, and throughput are compared with that of IEEE 802.15.4 MAC protocol, de-facto standard for wireless sensor networks. In general, L-CSMA outperforms the IEEE 802.15.4 MAC protocol.
Resumo:
Die vorliegende Arbeit behandelt die Entwicklung und Verbesserung von linear skalierenden Algorithmen für Elektronenstruktur basierte Molekulardynamik. Molekulardynamik ist eine Methode zur Computersimulation des komplexen Zusammenspiels zwischen Atomen und Molekülen bei endlicher Temperatur. Ein entscheidender Vorteil dieser Methode ist ihre hohe Genauigkeit und Vorhersagekraft. Allerdings verhindert der Rechenaufwand, welcher grundsätzlich kubisch mit der Anzahl der Atome skaliert, die Anwendung auf große Systeme und lange Zeitskalen. Ausgehend von einem neuen Formalismus, basierend auf dem großkanonischen Potential und einer Faktorisierung der Dichtematrix, wird die Diagonalisierung der entsprechenden Hamiltonmatrix vermieden. Dieser nutzt aus, dass die Hamilton- und die Dichtematrix aufgrund von Lokalisierung dünn besetzt sind. Das reduziert den Rechenaufwand so, dass er linear mit der Systemgröße skaliert. Um seine Effizienz zu demonstrieren, wird der daraus entstehende Algorithmus auf ein System mit flüssigem Methan angewandt, das extremem Druck (etwa 100 GPa) und extremer Temperatur (2000 - 8000 K) ausgesetzt ist. In der Simulation dissoziiert Methan bei Temperaturen oberhalb von 4000 K. Die Bildung von sp²-gebundenem polymerischen Kohlenstoff wird beobachtet. Die Simulationen liefern keinen Hinweis auf die Entstehung von Diamant und wirken sich daher auf die bisherigen Planetenmodelle von Neptun und Uranus aus. Da das Umgehen der Diagonalisierung der Hamiltonmatrix die Inversion von Matrizen mit sich bringt, wird zusätzlich das Problem behandelt, eine (inverse) p-te Wurzel einer gegebenen Matrix zu berechnen. Dies resultiert in einer neuen Formel für symmetrisch positiv definite Matrizen. Sie verallgemeinert die Newton-Schulz Iteration, Altmans Formel für beschränkte und nicht singuläre Operatoren und Newtons Methode zur Berechnung von Nullstellen von Funktionen. Der Nachweis wird erbracht, dass die Konvergenzordnung immer mindestens quadratisch ist und adaptives Anpassen eines Parameters q in allen Fällen zu besseren Ergebnissen führt.
Resumo:
Polymerbasierte Kolloide mit Groen im Nanometerbereich werden als aussichts- reiche Kandidaten fur die Verkapselung und den Transport von pharmazeutischen Wirkstoen angesehen. Daher ist es wichtig die physikalischen Prozesse, die die Bil- dung, Struktur und kinetische Stabilitat der polymerbasierten Kolloide beein ussen, besser zu verstehen. Allerdings ist die Untersuchung dieser Prozesse fur nanome- tergroe Objekte kompliziert und erfordert fortgeschrittene Techniken. In dieser Arbeit beschreibe ich Untersuchungen, bei denen Zwei-Farben-Fluoreszenzkreuz- korrelationsspektroskopie (DC FCCS) genutzt wurde, um Informationen uber die Wechselwirkung und den Austausch von dispergierten, nanometergroen Kolloiden zu bekommen. Zunachst habe ich den Prozess der Polymernanopartikelherstellung aus Emul- sionstropfen untersucht, welcher einen der am haugsten angewendeten Prozesse der Nanopartikelformulierung darstellt. Ich konnte zeigen, dass mit DC FCCS eindeutig und direkt Koaleszenz zwischen Emulsionstropfen gemessen werden kann. Dies ist von Interesse, da Koaleszenz als Hauptgrund fur die breite Groenverteilung der nalen Nanopartikel angesehen wird. Weiterhin habe ich den Austausch von Mizellen bildenden Molekulen zwischen amphiphilen Diblock Kopolymermizellen untersucht. Als Modellsystem diente ein Linear-Burste Block Kopolymer, welches Mizellen mit einer dichten und kurzen Korona bildet. Mit Hilfe von DC FCCS konnte der Austausch in verschiedenen Losungsmitteln und bei verschiedenen Temperaturen beobachtet werden. Ich habe herausgefunden, dass in Abhangigkeit der Qualitat des Losungsmittels die Zeit des Austausches um Groenordnungen verschoben werden kann, was eine weitreichende Einstellung der Austauschkinetik ermoglicht. Eine Eigenschaft die all diese Kolloide gemeinsam haben ist ihre Polydispersitat. Im letzten Teil meiner Arbeit habe ich am Beispiel von Polymeren als Modellsystem untersucht, welchen Eekt Polydispersitat und die Art der Fluoreszenzmarkierung auf FCS Experimente haben. Eine Anpassung des klassischen FCS Modells kann die FCS Korrelationskurven dieser Systeme beschreiben. Die Richtigkeit meines Ansatzes habe ich mit dem Vergleich zur Gel-Permeations-Chromatographie und Brownschen Molekulardynamiksimulationen bestatigt.
Resumo:
This thesis explores system performance for reconfigurable distributed systems and provides an analytical model for determining throughput of theoretical systems based on the OpenSPARC FPGA Board and the SIRC Communication Framework. This model was developed by studying a small set of variables that together determine a system¿s throughput. The importance of this model is in assisting system designers to make decisions as to whether or not to commit to designing a reconfigurable distributed system based on the estimated performance and hardware costs. Because custom hardware design and distributed system design are both time consuming and costly, it is important for designers to make decisions regarding system feasibility early in the development cycle. Based on experimental data the model presented in this paper shows a close fit with less than 10% experimental error on average. The model is limited to a certain range of problems, but it can still be used given those limitations and also provides a foundation for further development of modeling reconfigurable distributed systems.
Resumo:
In this work electrophoretically mediated micro-analysis (EMMA) is used in conjunction with short end injection to improve the in-capillary Jaffé assay for creatinine. Key advances over prior work include (i) using simulation to ensure intimate overlap of reagent plugs, (ii) using OH- to drive the reaction, (iii) using short-end injection to minimize analysis time and in-line product degradation. The potential-driven overlapping time with the EMMA approach, as well as the borate buffer background electrolyte (BGE) concentration and pH are optimized with the short end approach. The best conditions for short-end analyses would not have been predicted by the prior long end work, owing to a complex interplay of separation time and product degradation rates. Raw peak areas and flow-adjusted peak areas for the Jaffé reaction product (at 505 nm) are used to assess the sensitivity of the short-end EMMA approach. Optimal overlap conditions depend heavily on local conductivity differences within the reagent zone(s), as these differences cause dramatic voltage field differences, which effect reagent overlap dynamics. Simul 5.0, a dynamic simulation program for capillary electrophoresis (CE) systems, is used to understand the ionic boundaries and profiles that give rise to the experimentally obtained data for EMMA analysis. Overall, fast migration of hydroxide ions from the picrate zone makes difficult reagent overlap. In addition, the challenges associated with the simultaneous overlapping of three reagent zones are considered, and experimental results validate the predictions made by the simulation. With one set of “optimized” conditions including OH- (253 mM) as the third reagent zone the response was linear with creatinine concentration (R2 = 0.998) and reproducible over the clinically relevant range (0.08 to 0.1 mM) of standard creatinine concentrations. An LOD (S/N = 3) of 0.02 mM and LOQ (S/N=10) of 0.08 mM were determined. A significant improvement (43%) in assay sensitivity was obtained compared to prior work that considered only two reagents in the overlap.
Resumo:
The analysis of short segments of noise-contaminated, multivariate real world data constitutes a challenge. In this paper we compare several techniques of analysis, which are supposed to correctly extract the amount of genuine cross-correlations from a multivariate data set. In order to test for the quality of their performance we derive time series from a linear test model, which allows the analytical derivation of genuine correlations. We compare the numerical estimates of the four measures with the analytical results for different correlation pattern. In the bivariate case all but one measure performs similarly well. However, in the multivariate case measures based on the eigenvalues of the equal-time cross-correlation matrix do not extract exclusively information about the amount of genuine correlations, but they rather reflect the spatial organization of the correlation pattern. This may lead to failures when interpreting the numerical results as illustrated by an application to three electroencephalographic recordings of three patients suffering from pharmacoresistent epilepsy.