6 resultados para Periodic inspection of crop sprayers

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The production, segregation and migration of melt and aqueous fluids (henceforth called liquid) plays an important role for the transport of mass and energy within the mantle and the crust of the Earth. Many properties of large-scale liquid migration processes such as the permeability of a rock matrix or the initial segregation of newly formed liquid from the host-rock depends on the grain-scale distribution and behaviour of liquid. Although the general mechanisms of liquid distribution at the grain-scale are well understood, the influence of possibly important modifying processes such as static recrystallization, deformation, and chemical disequilibrium on the liquid distribution is not well constrained. For this thesis analogue experiments were used that allowed to investigate the interplay of these different mechanisms in-situ. In high-temperature environments where melts are produced, the grain-scale distribution in “equilibrium” is fully determined by the liquid fraction and the ratio between the solid-solid and the solid-liquid surface energy. The latter is commonly expressed as the dihedral or wetting angle between two grains and the liquid phase (Chapter 2). The interplay of this “equilibrium” liquid distribution with ongoing surface energy driven recrystallization is investigated in Chapter 4 and 5 with experiments using norcamphor plus ethanol liquid. Ethanol in contact with norcamphor forms a wetting angle of about 25°, which is similar to reported angles of rock-forming minerals in contact with silicate melt. The experiments in Chapter 4 show that previously reported disequilibrium features such as trapped liquid lenses, fully-wetted grain boundaries, and large liquid pockets can be explained by the interplay of the liquid with ongoing recrystallization. Closer inspection of dihedral angles in Chapter 5 reveals that the wetting angles are themselves modified by grain coarsening. Ongoing recrystallization constantly moves liquid-filled triple junctions, thereby altering the wetting angles dynamically as a function of the triple junction velocity. A polycrystalline aggregate will therefore always display a range of equilibrium and dynamic wetting angles at raised temperature, rather than a single wetting angle as previously thought. For the deformation experiments partially molten KNO3–LiNO3 experiments were used in addition to norcamphor–ethanol experiments (Chapter 6). Three deformation regimes were observed. At a high bulk liquid fraction >10 vol.% the aggregate deformed by compaction and granular flow. At a “moderate” liquid fraction, the aggregate deformed mainly by grain boundary sliding (GBS) that was localized into conjugate shear zones. At a low liquid fraction, the grains of the aggregate formed a supporting framework that deformed internally by crystal plastic deformation or diffusion creep. Liquid segregation was most efficient during framework deformation, while GBS lead to slow liquid segregation or even liquid dispersion in the deforming areas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present thesis introduces a novel sensitive technique based on TSM resonators that provides quantitative information about the dynamic properties of biological cells and artificial lipid systems. In order to support and complement results obtained by this method supplementary measurements based on ECIS technique were carried out. The first part (chapters 3 and 4) deals with artificial lipid systems. In chapter 3 ECIS measurements were used to monitor the adsorption of giant unilamellar vesicles as well as their thermal fluctuations. From dynamic Monte Carlo Simulations the rate constant of vesicle adsorption was determined. Furthermore, analysis of fluctuation measurements reveals Brownian motion reflecting membrane undulations of the adherent liposomes. In chapter 4 QCM-based fluctuation measurements were applied to quantify nanoscopically small deformations of giant unilamellar vesicles with an external electrical field applied simultaneously. The response of liposomes to an external voltage with shape changes was monitored as a function of cholesterol content and adhesion force. In the second part (chapters 5 - 8) attention was given to cell motility. It was shown for the first time, that QCM can be applied to monitor the dynamics of living adherent cells in real time. QCM turned out to be a highly sensitive tool to detect the vertical motility of adherent cells with a time resolution in the millisecond regime. The response of cells to environmental changes such as temperature or osmotic stress could be quantified. Furthermore, the impact of cytochalasin D (inhibits actin polymerization) and taxol (facilitate polymerization of microtubules) as well as nocodazole (depolymerizes microtubules) on the dynamic properties of cells was scrutinized. Each drug provoked a significant reduction of the monitored cell shape fluctuations as expected from their biochemical potential. However, not only the abolition of fluctuations was observed but also an increase of motility due to integrin-induced transmembrane signals. These signals were activated by peptides containing the RGD sequence, which is known to be an integrin recognition motif. Ultimately, two pancreatic carcinoma cell lines, derived from the same original tumor, but known to possess different metastatic potential were studied. Different dynamic behavior of the two cell lines was observed which was attributed to cell-cell as well as cell-substrate interactions rather than motility. Thus one may envision that it might be possible to characterize the motility of different cell types as a function of many variables by this new highly sensitive technique based on TSM resonators. Finally the origin of the broad cell resonance was investigated. Improvement of the time resolution reveals the "real" frequency of cell shape fluctuations. Several broad resonances around 3-5 Hz, 15-17 Hz and 25-29 Hz were observed and that could unequivocally be assigned to biological activity of living cells. However, the kind of biological process that provokes this synchronized collective and periodic behavior of the cells remains to be elucidated.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A field of computational neuroscience develops mathematical models to describe neuronal systems. The aim is to better understand the nervous system. Historically, the integrate-and-fire model, developed by Lapique in 1907, was the first model describing a neuron. In 1952 Hodgkin and Huxley [8] described the so called Hodgkin-Huxley model in the article “A Quantitative Description of Membrane Current and Its Application to Conduction and Excitation in Nerve”. The Hodgkin-Huxley model is one of the most successful and widely-used biological neuron models. Based on experimental data from the squid giant axon, Hodgkin and Huxley developed their mathematical model as a four-dimensional system of first-order ordinary differential equations. One of these equations characterizes the membrane potential as a process in time, whereas the other three equations depict the opening and closing state of sodium and potassium ion channels. The membrane potential is proportional to the sum of ionic current flowing across the membrane and an externally applied current. For various types of external input the membrane potential behaves differently. This thesis considers the following three types of input: (i) Rinzel and Miller [15] calculated an interval of amplitudes for a constant applied current, where the membrane potential is repetitively spiking; (ii) Aihara, Matsumoto and Ikegaya [1] said that dependent on the amplitude and the frequency of a periodic applied current the membrane potential responds periodically; (iii) Izhikevich [12] stated that brief pulses of positive and negative current with different amplitudes and frequencies can lead to a periodic response of the membrane potential. In chapter 1 the Hodgkin-Huxley model is introduced according to Izhikevich [12]. Besides the definition of the model, several biological and physiological notes are made, and further concepts are described by examples. Moreover, the numerical methods to solve the equations of the Hodgkin-Huxley model are presented which were used for the computer simulations in chapter 2 and chapter 3. In chapter 2 the statements for the three different inputs (i), (ii) and (iii) will be verified, and periodic behavior for the inputs (ii) and (iii) will be investigated. In chapter 3 the inputs are embedded in an Ornstein-Uhlenbeck process to see the influence of noise on the results of chapter 2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Hydroxyl Radikal ist, auf globalem Maßstab, das bedeutendste Oxidant in der Atmosphäre. Es initiiert den Abbauprozess vieler, teilweise schädlicher, Spurengase und insbesondere den von flüchtigen Kohlenwasserstoffen (VOC). Die OH Konzentration ist somit ein gutes Maß für die augenblickliche Selbstreinigungskapazität der Atmosphäre. Messungen zu nächtlicher Zeit mit LIF-FAGE-Instrumenten (engl.: laser-induced fluorescence - fluorescence assay by gas expansion) haben Konzentrationen des Hydroxylradikals (OH) ergeben, die signifikant höher waren, als sich mit der bekannten Chemie erklären ließ. Um herauszufinden, ob ein solches Signal wirklich atmosphärisches OH ist oder von einer störenden Spezies stammt, die im Messinstrument OH produziert, wurde das LIF-FAGE-Instrument des Max-Planck-Instituts für Chemie (MPIC) im Rahmen dieser Doktorarbeit modifiziert und getestet. Dazu wurde ein so genannter Inlet Pre-Injector (IPI) entwickelt, mit dem in regelmäßigen Abständen ein OH-Fänger in die Umgebungsluft abgegeben werden kann, bevor das OH vom Instrument erfasst wird. Mit dieser Technik ist es möglich, ein Hintergrund-OH (OHbg), d. h. ein im Instrument erzeugtes OH-Signal, vom gemessenen OH-Gesamtsignal (OHtot) zu trennen. Die Differenz zwischen OHtot und OHbg ist die atmosphärische OH-Konzentration (OHatm). Vergleichsmessungen mit der hier entwickelten Technik, dem IPI, in zwei verschiedenen Umgebungen mit Instrumenten basierend auf Massenspektrometrie mit chemischer Ionisation (CIMS, engl.: chemical ionization mass spectrometry) als alternativer Methode des OH-Nachweises, zeigten eine weitgehende Übereinstimmung. Eine umfassende Beschreibung des Systems zur Ermittlung der Ursache des OHbg hat ergeben, dass es weder von einem Artefakt des Instruments noch von hinlänglich bekannten und beschriebenen LIF-FAGE-Interferenzen stammt. Zur Bestimmung der Spezies, die das OHbg-Signal verursacht, wurden verschiedene Laborstudien durchgeführt. Die Arbeit im Rahmen dieser Doktorarbeit hat ergeben, dass das LIF-FAGE-Instrument leicht auf OH reagiert, das beim monomolekularen Zerfall stabilisierter Criegee-Intermediate (SCI) im Niederdruckbereich des Instruments gebildet wird. Criegee-Intermediate oder Carbonyloxide entstehen bei der Ozonolyse ungesättigter flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) und können daher in der Umgebungsluft vorkommen. Anhand von Tests mit verschiedenen Verweilzeiten der SCI im Niederdruckbereich des Instruments in Verbindung mit einem detaillierten Modell mit der neuesten SCI-Chemie wurde die monomolekulare Zerfallsgeschwindigkeit von 20  10 s-1 für den syn-Acetaldehyd-Oxykonformer bestimmt. Der in Feldkampagnen gemessene OHbg-Wert wurde dahingehend untersucht, ob SCI die Quelle des beobachteten Hintergrund-OH im Feld sein könnten. Das Budget für die SCI-Konzentration, das für die Kampagnen HUMPPA-COPEC 2010 und HOPE 2012 berechnet wurde, ergab eine SCI-Konzentration zwischen ca. 103 und 106 Molekülen pro cm3. In der Kampagne HUMPPA-COPEC 2010 ergab die Schwefelsäurekonzentration, dass die OH-Oxidation von SO2 allein die gemessene H2SO4-Konzentration nicht erklären konnte. In dieser Arbeit konnte gezeigt werden, dass das Hintergrund-OH mit dieser ungeklärten Produktionsrate von H2SO4 korreliert und somit die Oxidation von SO2 durch SCI als mögliche Erklärung in Frage kommt. Ferner korreliert das Hintergrund-OH in der Kampagne HOPE 2012 mit dem Produkt aus Ozon und VOC und konnte mit SO2 als SCI Fänger entfernt werden. Qualitativ zeigen wir somit, dass das in der Umgebungsluft gemessene Hintergrund-OH wahrscheinlich durch den monomolekularen Zerfall von SCI verursacht wird, doch sind weitere Studien notwendig, um die quantitativen Beziehung für diese Spezies und dem Hintergrund-OH in unserem Instrument zu bestimmen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.