977 resultados para Robust stability
Resumo:
Es ist bekannt, dass die Umsatzdynamik der organischen Substanz von der Bodenbearbeitungsintensität abhängt. Bis jetzt sind nur wenige Daten zum Einfluss der Bearbeitungsintensität und des Zwischenfruchtanbaus auf C-, N-, und P-Dynamik im Ober- (0-5 cm Tiefe) und Unterboden (5-25 cm Tiefe) von Lössböden verfügbar. Hauptziele dieser Arbeit waren die (i) Quantifizierung des Einflusses von verschiedenen langzeitig durchgeführten Bearbeitungssystemen auf labile, intermediäre, und passive C- und N-Pools; (ii) Quantifizierung des Einflusses dieser Systeme auf P-Fraktionen mit unterschiedlicher Verfügbarkeit für die Pflanzenaufnahme; (iii) Quantifizierung des Einflusses des Zwischenfruchtanbaus in Verbindung mit einer unterschiedlichen Einarbeitungstiefe der der Zwischenfrüchte auf mineralisierbares C und N. Die Ergebnisse des 1. und 2. Teilexperiments basieren auf Untersuchungen von 4 Langzeitfeldexperimenten (LFE) in Ost- und Süddeutschland, die zwischen 1990 und 1997 durch das Institut für Zuckerrübenforschung angelegt wurden. Jedes LFE umfasst 3 Bearbeitungssysteme: konventionelle Bearbeitung (CT), reduzierte Bearbeitung (RT) und Direktsaat (NT). Die Ergebnisse des 3. Teilexperiments basieren auf einem Inkubationsexperiment. Entsprechend den Hauptfragestellungen wurden folgende Untersuchungsergebnisse beschrieben: (i) Im Oberboden von NT wurden höhere labile C-Vorräte gefunden (C: 1.76 t ha-1, N: 166 kg ha-1), verglichen mit CT (C: 0.44 t ha-1, N: 52 kg ha-1). Im Gegensatz dazu waren die labile- C-Vorräte höher im Unterboden von CT mit 2.68 t ha-1 verglichen zu NT mit 2 t ha-1 und RT mit 1.87 t ha-1. Die intermediären C-Vorräte betrugen 73-85% der gesamten organischen C-Vorräte, intermediäre N-Vorräte betrugen 70-95% des Gesamt-N im Ober- und Unterboden und waren vielfach größer als die labilen und passiven C- und N-Vorräte. Nur im Oberboden konnte ein Effekt der Bearbeitungsintensität auf die intermediären N-Pools mit höheren Vorräten unter NT als CT festgestellt werden. Die passiven C- und N-Pools waren eng mit den mineralischen Bodeneigenschaften verbunden und unabhängig vom Bearbeitungssystem. Insgesamt hat sich gezeigt, dass 14 bis 22 Jahre durchgängige Direktsaatverfahren nur im Oberboden zu höheren labilen C- und N-Vorräten führen, verglichen zu konventionellen Systemen. Dies lässt eine tiefenabhängige Stärke der Dynamik der organischen Bodensubstanz vermuten. (ii) Die Konzentration des Gesamt-P (Pt) im Oberboden war höher in NT (792 mg kg-1) und ~15% höher als die Pt-Konzentration in CT (691 mg kg 1). Die Abnahme der Pt-Konzentration mit zunehmender Bodentiefe war höher in NT als in CT. Dies gilt auch für die einzelnen P-Fraktionen, ausgenommen der stabilsten P-Fraktion (residual-P). Generell hatte das Bearbeitungssystem nur einen kleinen Einfluss auf die P-Konzentration mit höheren Pt-Konzentrationen in Böden unter NT als CT. Dies resultiert vermutlich aus der flacheren Einarbeitung der Pflanzenreste als in CT. (iii) Im Zwischenfruchtexperiment war der Biomassezuwachs von Senf am höchsten und nimmt in der Reihenfolge ab (oberirdischer Ertrag in t / ha): Senf (7.0 t ha-1) > Phacelia (5.7 t ha-1) > Ölrettich (4.4 t ha-1). Damit war potentiell mineralisierbares C und N am höchsten in Böden mit Senfbewuchs. Kumulative CO2- und N2O-Emissionen während der Inkubation unterschieden sich nicht signifikant zwischen den Zwischenfruchtvarianten und waren unabhängig von der Verteilung der Pflanzenreste im Boden. Die kumulativen ausgewaschenen mineralisierten N (Nmin)-Vorräte waren in den brachliegenden Böden am höchsten. Die Nmin-Vorräte waren 51-72% niedriger in den Varianten mit Zwischenfrucht und Einarbeitung verglichen zur Brache. In den Varianten ohne Einarbeitung waren die Nmin-Vorräte 36-55% niedriger verglichen zur Brache. Dies weißt auf einen deutlichen Beitrag von Zwischenfrüchten zur Reduzierung von Nitrat-Auswaschung zwischen Winter und Frühjahr hin. Insgesamt führte reduzierte Bearbeitung zu einer Sequestrierung von C und N im Boden und der Zwischenfruchtanbau führte zu reduzierten N-Verlusten. Die P-Verfügbarkeit war höher unter Direktsaat verglichen zur konventionellen Bearbeitung. Diese Ergebnisse resultieren aus den höheren Konzentrationen der OS in den reduzierten, als in den konventionellen Systemen. Die Ergebnisse zeigen deutlich das Potential von reduzierter Bearbeitung zur Sequestrierung von intermediärem C und N zur Reduzierung von klimarelevanten Treibhausgasen. Gleichzeitig steigen die Konzentrationen an pflanzenverfügaren P-Gehalten. Zwischenfrüchte führen auch zu einem Anstieg der C- und N-Vorräte im Boden, offensichtlich unabhängig von der Zwischenfruchtart.
Resumo:
Für große Windenergieanlagen werden neue Pitchregler wie Einzelblattregler oder Turmdämpfungsregler entwickelt. Während diese neuen Pitchregler die Elemente der Windenergieanlagen entlasten, wird das Pitchantriebssystem stärker belastet. Die Pitchantriebe müssen weitaus häufiger bei höherer Amplitude arbeiten. Um die neuen Pitchregler nutzen zu können, muss zunächst das Problem der Materialermüdung der Pitchantriebssysteme gelöst werden. Das Getriebespiel in Getrieben und zwischen Ritzeln und dem Zahnkranz erhöht die Materialermüdung in den Pitchantriebssystemen. In dieser Studie werden als Lösung zwei Pitchantriebe pro Blatt vorgeschlagen. Die beiden Pitchantriebe erzeugen eine Spannung auf dem Pitchantriebssystem und kompensieren das Getriebespiel. Drehmomentspitzen, die eine Materialermüdung verursachen, treten bei diesem System mit zwei Pitchmotoren nicht mehr auf. Ein Reglerausgang wird via Drehmomentverteiler auf die beiden Pitchantriebe übertragen. Es werden mehrere Methoden verglichen und der leistungsfähigste Drehmomentverteiler ausgewählt. Während die Pitchantriebe in Bewegung sind, ändert sich die Spannung auf den Getrieben. Die neuen Pitchregler verstellen den Pitchwinkel in einer sinusförmigen Welle. Der Profilgenerator, der derzeit als Pitchwinkelregler verwendet wird, kann eine Phasenverzögerung im sinusförmigen Pitchwinkel verursachen. Zusätzlich erzeugen große Windenergieanlagen eine hohe Last, die sich störend auf die Pitchbewegung auswirkt. Änderungen der viskosen Reibung und Nichtlinearität der Gleitreibung bzw. Coulombsche Reibung des Pitchregelsystems erschweren zudem die Entwicklung eines Pitchwinkelreglers. Es werden zwei robuste Regler (H∞ und μ–synthesis ) vorgestellt und mit zwei herkömmlichen Reglern (PD und Kaskadenregler) verglichen. Zur Erprobung des Pitchantriebssystems und des Pitchwinkelreglers wird eine Prüfanordnung verwendet. Da der Kranz nicht mit einem Positionssensor ausgestattet ist, wird ein Überwachungselement entwickelt, das die Kranzposition meldet. Neben den beiden Pitchantrieben sind zwei Lastmotoren mit dem Kranz verbunden. Über die beiden Lastmotoren wird das Drehmoment um die Pitchachse einer Windenergieanlage simuliert. Das Drehmoment um die Pitchachse setzt sich zusammen aus Schwerkraft, aerodynamischer Kraft, zentrifugaler Belastung, Reibung aufgrund des Kippmoments und der Beschleunigung bzw. Verzögerung des Rotorblatts. Das Blatt wird als Zweimassenschwinger modelliert. Große Windenergieanlagen und neue Pitchregler für die Anlagen erfordern ein neues Pitchantriebssystem. Als Hardware-Lösung bieten sich zwei Pitchantriebe an mit einem robusten Regler als Software.
Resumo:
In this contribution, we present a systematic investigation on a series of spiroquaterphenyl compounds optimised for solid state lasing in the near ultraviolet (UV). Amplified spontaneous emission (ASE) thresholds in the order of 1 μJ/cm2 are obtained in neat (undiluted) films and blends, with emission peaks at 390 1 nm for unsubstituted and meta-substituted quaterphenyls and 400 4 nm for para-ether substituted quaterphenyls. Mixing with a transparent matrix retains a low threshold, shifts the emission to lower wavelengths and allows a better access to modes having their intensity maximum deeper in the film. Chemical design and blending allow an independent tuning of optical and processing properties such as the glass transition.
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
This thesis addresses the problem of developing automatic grasping capabilities for robotic hands. Using a 2-jointed and a 4-jointed nmodel of the hand, we establish the geometric conditions necessary for achieving form closure grasps of cylindrical objects. We then define and show how to construct the grasping pre-image for quasi-static (friction dominated) and zero-G (inertia dominated) motions for sensorless and sensor-driven grasps with and without arm motions. While the approach does not rely on detailed modeling, it is computationally inexpensive, reliable, and easy to implement. Example behaviors were successfully implemented on the Salisbury hand and on a planar 2-fingered, 4 degree-of-freedom hand.
Resumo:
In the field of biologics production, productivity and stability of the transfected gene of interest are two very important attributes that dictate if a production process is viable. To further understand and improve these two traits, we would need to further our understanding of the factors affecting them. These would include integration site of the gene, gene copy number, cell phenotypic variation and cell environment. As these factors play different parts in the development process, they lead to variable productivity and stability of the transfected gene between clones, the well-known phenomenon of “clonal variation”. A study of this phenomenon and how the various factors contribute to it will thus shed light on strategies to improve productivity and stability in the production cell line. Of the four factors, the site of gene integration appears to be one of the most important. Hence, it is proposed that work is done on studying how different integration sites affect the productivity and stability of transfected genes in the development process. For the study to be more industrially relevant, it is proposed that the Chinese Hamster Ovary dhfr-deficient cell line, CHO-DG44, is used as the model system.
Resumo:
In standard multivariate statistical analysis common hypotheses of interest concern changes in mean vectors and subvectors. In compositional data analysis it is now well established that compositional change is most readily described in terms of the simplicial operation of perturbation and that subcompositions replace the marginal concept of subvectors. To motivate the statistical developments of this paper we present two challenging compositional problems from food production processes. Against this background the relevance of perturbations and subcompositions can be clearly seen. Moreover we can identify a number of hypotheses of interest involving the specification of particular perturbations or differences between perturbations and also hypotheses of subcompositional stability. We identify the two problems as being the counterpart of the analysis of paired comparison or split plot experiments and of separate sample comparative experiments in the jargon of standard multivariate analysis. We then develop appropriate estimation and testing procedures for a complete lattice of relevant compositional hypotheses
Resumo:
Factor analysis as frequent technique for multivariate data inspection is widely used also for compositional data analysis. The usual way is to use a centered logratio (clr) transformation to obtain the random vector y of dimension D. The factor model is then y = Λf + e (1) with the factors f of dimension k < D, the error term e, and the loadings matrix Λ. Using the usual model assumptions (see, e.g., Basilevsky, 1994), the factor analysis model (1) can be written as Cov(y) = ΛΛT + ψ (2) where ψ = Cov(e) has a diagonal form. The diagonal elements of ψ as well as the loadings matrix Λ are estimated from an estimation of Cov(y). Given observed clr transformed data Y as realizations of the random vector y. Outliers or deviations from the idealized model assumptions of factor analysis can severely effect the parameter estimation. As a way out, robust estimation of the covariance matrix of Y will lead to robust estimates of Λ and ψ in (2), see Pison et al. (2003). Well known robust covariance estimators with good statistical properties, like the MCD or the S-estimators (see, e.g. Maronna et al., 2006), rely on a full-rank data matrix Y which is not the case for clr transformed data (see, e.g., Aitchison, 1986). The isometric logratio (ilr) transformation (Egozcue et al., 2003) solves this singularity problem. The data matrix Y is transformed to a matrix Z by using an orthonormal basis of lower dimension. Using the ilr transformed data, a robust covariance matrix C(Z) can be estimated. The result can be back-transformed to the clr space by C(Y ) = V C(Z)V T where the matrix V with orthonormal columns comes from the relation between the clr and the ilr transformation. Now the parameters in the model (2) can be estimated (Basilevsky, 1994) and the results have a direct interpretation since the links to the original variables are still preserved. The above procedure will be applied to data from geochemistry. Our special interest is on comparing the results with those of Reimann et al. (2002) for the Kola project data
Resumo:
Often practical performance of analytical redundancy for fault detection and diagnosis is decreased by uncertainties prevailing not only in the system model, but also in the measurements. In this paper, the problem of fault detection is stated as a constraint satisfaction problem over continuous domains with a big number of variables and constraints. This problem can be solved using modal interval analysis and consistency techniques. Consistency techniques are then shown to be particularly efficient to check the consistency of the analytical redundancy relations (ARRs), dealing with uncertain measurements and parameters. Through the work presented in this paper, it can be observed that consistency techniques can be used to increase the performance of a robust fault detection tool, which is based on interval arithmetic. The proposed method is illustrated using a nonlinear dynamic model of a hydraulic system
Resumo:
This paper presents a complete solution for creating accurate 3D textured models from monocular video sequences. The methods are developed within the framework of sequential structure from motion, where a 3D model of the environment is maintained and updated as new visual information becomes available. The camera position is recovered by directly associating the 3D scene model with local image observations. Compared to standard structure from motion techniques, this approach decreases the error accumulation while increasing the robustness to scene occlusions and feature association failures. The obtained 3D information is used to generate high quality, composite visual maps of the scene (mosaics). The visual maps are used to create texture-mapped, realistic views of the scene
Resumo:
This paper presents the implementation details of a coded structured light system for rapid shape acquisition of unknown surfaces. Such techniques are based on the projection of patterns onto a measuring surface and grabbing images of every projection with a camera. Analyzing the pattern deformations that appear in the images, 3D information of the surface can be calculated. The implemented technique projects a unique pattern so that it can be used to measure moving surfaces. The structure of the pattern is a grid where the color of the slits are selected using a De Bruijn sequence. Moreover, since both axis of the pattern are coded, the cross points of the grid have two codewords (which permits to reconstruct them very precisely), while pixels belonging to horizontal and vertical slits have also a codeword. Different sets of colors are used for horizontal and vertical slits, so the resulting pattern is invariant to rotation. Therefore, the alignment constraint between camera and projector considered by a lot of authors is not necessary
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Resumen tomado de la publicaci??n
Resumo:
One of the techniques used to detect faults in dynamic systems is analytical redundancy. An important difficulty in applying this technique to real systems is dealing with the uncertainties associated with the system itself and with the measurements. In this paper, this uncertainty is taken into account by the use of intervals for the parameters of the model and for the measurements. The method that is proposed in this paper checks the consistency between the system's behavior, obtained from the measurements, and the model's behavior; if they are inconsistent, then there is a fault. The problem of detecting faults is stated as a quantified real constraint satisfaction problem, which can be solved using the modal interval analysis (MIA). MIA is used because it provides powerful tools to extend the calculations over real functions to intervals. To improve the results of the detection of the faults, the simultaneous use of several sliding time windows is proposed. The result of implementing this method is semiqualitative tracking (SQualTrack), a fault-detection tool that is robust in the sense that it does not generate false alarms, i.e., if there are false alarms, they indicate either that the interval model does not represent the system adequately or that the interval measurements do not represent the true values of the variables adequately. SQualTrack is currently being used to detect faults in real processes. Some of these applications using real data have been developed within the European project advanced decision support system for chemical/petrochemical manufacturing processes and are also described in this paper
Resumo:
En Colombia, la pobreza y el conflicto están estrechamente relacionados. Este estudio usa medidas de disuasión del gobierno como instrumentos de varias variables específicas de conflicto para estimar el impacto del conflicto sobre la pobreza en Colombia. Usando datos del censo a nivel municipal para el año 2005, evalúo el efecto sobre la incidencia urbana y rural del recientemente-desarrollado Índice de Pobreza Multidimensional. Los resultados sugieren que el conflicto aumenta significativamente la pobreza rural. Esto es consistente con el hecho que la mayor parte del conflicto en Colombia ocurre en las áreas rurales. También evalúo el efecto rezagado del conflicto en la pobreza para concluir que éste dura por al menos tres años pero que decae en el tiempo. Finalmente, pruebo que mis resultados son robustos a una batería de especificaciones adicionales, incluyendo una versión modificada de mi variable dependiente y el uso de una base alternativa de conflicto.