870 resultados para Analytical Anisotropic Algorithm
Resumo:
A conceptual information system consists of a database together with conceptual hierarchies. The management system TOSCANA visualizes arbitrary combinations of conceptual hierarchies by nested line diagrams and allows an on-line interaction with a database to analyze data conceptually. The paper describes the conception of conceptual information systems and discusses the use of their visualization techniques for on-line analytical processing (OLAP).
Resumo:
Die Verordnung des Europäischen Rates (EC) 834/2007 erkennt das Recht des Konsumenten auf eine Entscheidung basierend auf vollständiger Information bezüglich der enthaltenen Zutaten im Produkt und deren Herkunft (Qualität der Verarbeitung). Die primäre Kennzeichnungsverordnung betont „organische“ Produktionsstandards ebenso wie die Notwendigkeit zur Kontrolle und Aufsicht. Jedoch ist zurzeit keine validierte Methode zur analytischen Diskriminierung zwischen „organischer“ und „konventioneller“ Herkunft von angebotenen Lebensmitteln verfügbar. Das Ziel der Dissertationsarbeit war die Überprüfung der Möglichkeit mit ausgewählten analytischen und holistischen Methoden zwischen organisch und konventionell angebautem Weizen objektiv zu unterscheiden. Dies beinhaltete die Bestimmung des Gesamtstickstoff (Protein) nach Dumas, zweidimensionale Fluoreszenzdifferenz Gelelektrophorese (2D DIGE) und die Kupferchloridkristallisation. Zusätzlich wurde die Anzahl der Körner pro Ähre (Kornzahl) bestimmt. Alle Bestimmungen wurden an rückverfolgbaren in den Jahren 2005 – 2007 in Belgien gesammelten Proben des Winterweizen (Triticum aestivum L. cv. Cubus) durchgeführt. Statistisch signifikante (p < 0.05) Unterschiede wurden innerhalb der untersuchten Probengruppen sowohl in der Kornzahl, dem Gesamtsticksoff (Eiweißgehalt), als auch in der Gesamtausbeute gefunden, wobei in den meisten Fällen die konventionellen Proben höhere Kornzahlen und Gesamtsticksoff (Eiweißgehalte) aufwiesen. Eine mit der 2D DIGE kompatible Probenvorbereitungsmethode für Winterweizen wurde entwickelt und auf einen internen Winterweizenstandard sowie die entsprechenden Proben angewendet. Die organischen Proben waren im Vergleich mit den konventionellen Gegenstücken in allen Fällen durch eine kleinere Anzahl von signifikant (p < 0.05) stärker exprimierten Proteinspots gekennzeichnet. Gewisse Tendenzen in Richtung der Bevorzugung bestimmter Regionen von stärker ausgeprägten Proteinspots auf aufeinanderfolgenden 2D Abbildungen in Abhängigkeit von der landwirtschaftlichen Methode konnten zwar beobachtet werden, jedoch konnte kein universelles Markerprotein zur Unterscheidung von konventionell und biologisch angebautem Winterweizen identifiziert werden. Die rechnergestützte Verarbeitung der digitalisierten Kristallisierungsbilder mittels multivariater statistischer Analyse und der Regression partieller kleinster Quadrate ermöglichte eine 100%ig korrekte Vorhersage der landwirtschaftlichen Methode unbekannter Proben sowie der Beschreibung der Kristallisierungsbilder. Diese Vorhersage bezieht sich nur auf den hier verwendeten Datensatz (Proben einer Sorte von drei Standorten über zwei Jahre) und kann nicht ohne weiteres übertragen (generalisiert) werden. Die Ergebnisse deuten an, dass die Quantifizierung der beschriebenen Parameter ein hohes Potential zur Lösung der gestellten Aufgabe besitzt.
Resumo:
About ten years ago, triadic contexts were presented by Lehmann and Wille as an extension of Formal Concept Analysis. However, they have rarely been used up to now, which may be due to the rather complex structure of the resulting diagrams. In this paper, we go one step back and discuss how traditional line diagrams of standard (dyadic) concept lattices can be used for exploring and navigating triadic data. Our approach is inspired by the slice & dice paradigm of On-Line-Analytical Processing (OLAP). We recall the basic ideas of OLAP, and show how they may be transferred to triadic contexts. For modeling the navigation patterns a user might follow, we use the formalisms of finite state machines. In order to present the benefits of our model, we show how it can be used for navigating the IT Baseline Protection Manual of the German Federal Office for Information Security.
Resumo:
The present dissertation is devoted to the construction of exact and approximate analytical solutions of the problem of light propagation in highly nonlinear media. It is demonstrated that for many experimental conditions, the problem can be studied under the geometrical optics approximation with a sufficient accuracy. Based on the renormalization group symmetry analysis, exact analytical solutions of the eikonal equations with a higher order refractive index are constructed. A new analytical approach to the construction of approximate solutions is suggested. Based on it, approximate solutions for various boundary conditions, nonlinear refractive indices and dimensions are constructed. Exact analytical expressions for the nonlinear self-focusing positions are deduced. On the basis of the obtained solutions a general rule for the single filament intensity is derived; it is demonstrated that the scaling law (the functional dependence of the self-focusing position on the peak beam intensity) is defined by a form of the nonlinear refractive index but not the beam shape at the boundary. Comparisons of the obtained solutions with results of experiments and numerical simulations are discussed.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
"Expectation-Maximization'' (EM) algorithm and gradient-based approaches for maximum likelihood learning of finite Gaussian mixtures. We show that the EM step in parameter space is obtained from the gradient via a projection matrix $P$, and we provide an explicit expression for the matrix. We then analyze the convergence of EM in terms of special properties of $P$ and provide new results analyzing the effect that $P$ has on the likelihood surface. Based on these mathematical results, we present a comparative discussion of the advantages and disadvantages of EM and other algorithms for the learning of Gaussian mixture models.
Resumo:
We present a tree-structured architecture for supervised learning. The statistical model underlying the architecture is a hierarchical mixture model in which both the mixture coefficients and the mixture components are generalized linear models (GLIM's). Learning is treated as a maximum likelihood problem; in particular, we present an Expectation-Maximization (EM) algorithm for adjusting the parameters of the architecture. We also develop an on-line learning algorithm in which the parameters are updated incrementally. Comparative simulation results are presented in the robot dynamics domain.
Resumo:
Caches are known to consume up to half of all system power in embedded processors. Co-optimizing performance and power of the cache subsystems is therefore an important step in the design of embedded systems, especially those employing application specific instruction processors. In this project, we propose an analytical cache model that succinctly captures the miss performance of an application over the entire cache parameter space. Unlike exhaustive trace driven simulation, our model requires that the program be simulated once so that a few key characteristics can be obtained. Using these application-dependent characteristics, the model can span the entire cache parameter space consisting of cache sizes, associativity and cache block sizes. In our unified model, we are able to cater for direct-mapped, set and fully associative instruction, data and unified caches. Validation against full trace-driven simulations shows that our model has a high degree of fidelity. Finally, we show how the model can be coupled with a power model for caches such that one can very quickly decide on pareto-optimal performance-power design points for rapid design space exploration.
Resumo:
The discontinuities in the solutions of systems of conservation laws are widely considered as one of the difficulties in numerical simulation. A numerical method is proposed for solving these partial differential equations with discontinuities in the solution. The method is able to track these sharp discontinuities or interfaces while still fully maintain the conservation property. The motion of the front is obtained by solving a Riemann problem based on the state values at its both sides which are reconstructed by using weighted essentially non oscillatory (WENO) scheme. The propagation of the front is coupled with the evaluation of "dynamic" numerical fluxes. Some numerical tests in 1D and preliminary results in 2D are presented.
Resumo:
Image segmentation of natural scenes constitutes a major problem in machine vision. This paper presents a new proposal for the image segmentation problem which has been based on the integration of edge and region information. This approach begins by detecting the main contours of the scene which are later used to guide a concurrent set of growing processes. A previous analysis of the seed pixels permits adjustment of the homogeneity criterion to the region's characteristics during the growing process. Since the high variability of regions representing outdoor scenes makes the classical homogeneity criteria useless, a new homogeneity criterion based on clustering analysis and convex hull construction is proposed. Experimental results have proven the reliability of the proposed approach
Resumo:
This paper proposes a parallel architecture for estimation of the motion of an underwater robot. It is well known that image processing requires a huge amount of computation, mainly at low-level processing where the algorithms are dealing with a great number of data. In a motion estimation algorithm, correspondences between two images have to be solved at the low level. In the underwater imaging, normalised correlation can be a solution in the presence of non-uniform illumination. Due to its regular processing scheme, parallel implementation of the correspondence problem can be an adequate approach to reduce the computation time. Taking into consideration the complexity of the normalised correlation criteria, a new approach using parallel organisation of every processor from the architecture is proposed
Resumo:
This paper proposes a pose-based algorithm to solve the full SLAM problem for an autonomous underwater vehicle (AUV), navigating in an unknown and possibly unstructured environment. The technique incorporate probabilistic scan matching with range scans gathered from a mechanical scanning imaging sonar (MSIS) and the robot dead-reckoning displacements estimated from a Doppler velocity log (DVL) and a motion reference unit (MRU). The proposed method utilizes two extended Kalman filters (EKF). The first, estimates the local path travelled by the robot while grabbing the scan as well as its uncertainty and provides position estimates for correcting the distortions that the vehicle motion produces in the acoustic images. The second is an augment state EKF that estimates and keeps the registered scans poses. The raw data from the sensors are processed and fused in-line. No priory structural information or initial pose are considered. The algorithm has been tested on an AUV guided along a 600 m path within a marina environment, showing the viability of the proposed approach
Resumo:
The authors focus on one of the methods for connection acceptance control (CAC) in an ATM network: the convolution approach. With the aim of reducing the cost in terms of calculation and storage requirements, they propose the use of the multinomial distribution function. This permits direct computation of the associated probabilities of the instantaneous bandwidth requirements. This in turn makes possible a simple deconvolution process. Moreover, under certain conditions additional improvements may be achieved