995 resultados para mathematical parameters


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Verwendung von Aktivkohlen und -koksen stellt eine Alternative zu herkömmlichen Prozessen zur Verminderung der NOx-Emissionen in Rauchgasen dar. An diesen Materialien wird Stickstoffmonoxid adsorbiert und katalytisch zu N2 reduziert. Eine einheitliche Erklärung über die ablaufenden Vorgänge und die Reaktionsmechanismen gibt es noch nicht. Die Ergebnisse der bisher veröffentlichten wissenschaftlichen Arbeiten sind sehr unterschiedlich, wenn nicht sogar widersprüchlich. In dieser Arbeit wird, anhand der Messung von NO-Durchbruchskurven und thermischen Desorptionsspektren, die Adsorption und Reaktion von Stickstoffmonoxid an Aktivkohlen und -koksen in Anwesenheit von Sauerstoff und Wasserdampf untersucht. Zur Durchführung der experimentellen Untersuchungen wird eine Versuchsanlage, bestehend aus einer Vorrichtung zur Gasgemischaufbereitung, einem Festbettreaktor und einer Gasanalytik, konzipiert und aufgebaut. Die Untersuchungen erfolgen bei Temperaturen zwischen 100 und 150 °C. Die NO-, O2- und H2O-Konzentrationen werden anhand der Rauchgaszusammensetzung kohlegefeuerter Kraftwerke gewählt. Die experimentellen Untersuchungen konzentrieren sich auf die Verwendung einer Aktivkohle aus Ölpalmschalen, die in einem Drehrohrreaktor am Institut für Thermische Energietechnik der Universität Kassel hergestellt wurde. Die experimentellen Ergebnisse zeigen, dass während des Prozesses NO-Adsorption, -Reduktion und -Oxidation, NO2-Bildung, -Adsorption und -reduktive Desorption, H2O-Adsorption sowie O2-Vergasung gleichzeitig stattfinden. Bei niedrigen Temperaturen werden die NO2-Bildung und die Adsorption bevorzugt. Die NO-Reduktion läuft über adsorbiertes NO mit CO2- und CO-Bildung. Durch O2-Vergasung werden aktive freie Cf-Plätzen für die NO-Reaktion und -Adsorption gebildet. Wasserdampf wird an der Aktivkohle adsorbiert und belegt aktive Plätze für diese Prozesse. Aus den experimentellen Ergebnissen werden kinetische und Gleichgewichtsparameter der NO-Sorption bestimmt. Ein vereinfachtes mathematisches Modell des Festbettreaktors, das zur Berechnung der NO-Durchbruchskurven bei unterschiedlichen Temperaturen dient, wird aufgestellt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Student’s t-distribution has found various applications in mathematical statistics. One of the main properties of the t-distribution is to converge to the normal distribution as the number of samples tends to infinity. In this paper, by using a Cauchy integral we introduce a generalization of the t-distribution function with four free parameters and show that it converges to the normal distribution again. We provide a comprehensive treatment of mathematical properties of this new distribution. Moreover, since the Fisher F-distribution has a close relationship with the t-distribution, we also introduce a generalization of the F-distribution and prove that it converges to the chi-square distribution as the number of samples tends to infinity. Finally some particular sub-cases of these distributions are considered.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work presents Bayes invariant quadratic unbiased estimator, for short BAIQUE. Bayesian approach is used here to estimate the covariance functions of the regionalized variables which appear in the spatial covariance structure in mixed linear model. Firstly a brief review of spatial process, variance covariance components structure and Bayesian inference is given, since this project deals with these concepts. Then the linear equations model corresponding to BAIQUE in the general case is formulated. That Bayes estimator of variance components with too many unknown parameters is complicated to be solved analytically. Hence, in order to facilitate the handling with this system, BAIQUE of spatial covariance model with two parameters is considered. Bayesian estimation arises as a solution of a linear equations system which requires the linearity of the covariance functions in the parameters. Here the availability of prior information on the parameters is assumed. This information includes apriori distribution functions which enable to find the first and the second moments matrix. The Bayesian estimation suggested here depends only on the second moment of the prior distribution. The estimation appears as a quadratic form y'Ay , where y is the vector of filtered data observations. This quadratic estimator is used to estimate the linear function of unknown variance components. The matrix A of BAIQUE plays an important role. If such a symmetrical matrix exists, then Bayes risk becomes minimal and the unbiasedness conditions are fulfilled. Therefore, the symmetry of this matrix is elaborated in this work. Through dealing with the infinite series of matrices, a representation of the matrix A is obtained which shows the symmetry of A. In this context, the largest singular value of the decomposed matrix of the infinite series is considered to deal with the convergence condition and also it is connected with Gerschgorin Discs and Poincare theorem. Then the BAIQUE model for some experimental designs is computed and compared. The comparison deals with different aspects, such as the influence of the position of the design points in a fixed interval. The designs that are considered are those with their points distributed in the interval [0, 1]. These experimental structures are compared with respect to the Bayes risk and norms of the matrices corresponding to distances, covariance structures and matrices which have to satisfy the convergence condition. Also different types of the regression functions and distance measurements are handled. The influence of scaling on the design points is studied, moreover, the influence of the covariance structure on the best design is investigated and different covariance structures are considered. Finally, BAIQUE is applied for real data. The corresponding outcomes are compared with the results of other methods for the same data. Thereby, the special BAIQUE, which estimates the general variance of the data, achieves a very close result to the classical empirical variance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The paper will consist of three parts. In part I we shall present some background considerations which are necessary as a basis for what follows. We shall try to clarify some basic concepts and notions, and we shall collect the most important arguments (and related goals) in favour of problem solving, modelling and applications to other subjects in mathematics instruction. In the main part II we shall review the present state, recent trends, and prospective lines of development, both in empirical or theoretical research and in the practice of mathematics instruction and mathematics education, concerning problem solving, modelling, applications and relations to other subjects. In particular, we shall identify and discuss four major trends: a widened spectrum of arguments, an increased globality, an increased unification, and an extended use of computers. In the final part III we shall comment upon some important issues and problems related to our topic.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper aims at giving a concise survey of the present state-of-the-art of mathematical modelling in mathematics education and instruction. It will consist of four parts. In part 1, some basic concepts relevant to the topic will be clarified and, in particular, mathematical modelling will be defined in a broad, comprehensive sense. Part 2 will review arguments for the inclusion of modelling in mathematics teaching at schools and universities, and identify certain schools of thought within mathematics education. Part 3 will describe the role of modelling in present mathematics curricula and in everyday teaching practice. Some obstacles for mathematical modelling in the classroom will be analysed, as well as the opportunities and risks of computer usage. In part 4, selected materials and resources for teaching mathematical modelling, developed in the last few years in America, Australia and Europe, will be presented. The examples will demonstrate many promising directions of development.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The paper will consist of three parts. In part I we shall present some background considerations which are necessary as a basis for what follows. We shall try to clarify some basic concepts and notions, and we shall collect the most important arguments (and related goals) in favour of problem solving, modelling and applications to other subjects in mathematics instruction. In the main part II we shall review the present state, recent trends, and prospective lines of development, both in empirical or theoretical research and in the practice of mathematics instruction and mathematics education, concerning (applied) problem solving, modelling, applications and relations to other subjects. In particular, we shall identify and discuss four major trends: a widened spectrum of arguments, an increased globality, an increased unification, and an extended use of computers. In the final part III we shall comment upon some important issues and problems related to our topic.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A real-time analysis of renewable energy sources, such as arable crops, is of great importance with regard to an optimised process management, since aspects of ecology and biodiversity are considered in crop production in order to provide a sustainable energy supply by biomass. This study was undertaken to explore the potential of spectroscopic measurement procedures for the prediction of potassium (K), chloride (Cl), and phosphate (P), of dry matter (DM) yield, metabolisable energy (ME), ash and crude fibre contents (ash, CF), crude lipid (EE), nitrate free extracts (NfE) as well as of crude protein (CP) and nitrogen (N), respectively in pretreated samples and undisturbed crops. Three experiments were conducted, one in a laboratory using near infrared reflectance spectroscopy (NIRS) and two field spectroscopic experiments. Laboratory NIRS measurements were conducted to evaluate to what extent a prediction of quality parameters is possible examining press cakes characterised by a wide heterogeneity of their parent material. 210 samples were analysed subsequent to a mechanical dehydration using a screw press. Press cakes serve as solid fuel for thermal conversion. Field spectroscopic measurements were carried out with regard to further technical development using different field grown crops. A one year lasting experiment over a binary mixture of grass and red clover examined the impact of different degrees of sky cover on prediction accuracies of distinct plant parameters. Furthermore, an artificial light source was used in order to evaluate to what extent such a light source is able to minimise cloud effects on prediction accuracies. A three years lasting experiment with maize was conducted in order to evaluate the potential of off-nadir measurements inside a canopy to predict different quality parameters in total biomass and DM yield using one sensor for a potential on-the-go application. This approach implements a measurement of the plants in 50 cm segments, since a sensor adjusted sideways is not able to record the entire plant height. Calibration results obtained by nadir top-of-canopy reflectance measurements were compared to calibration results obtained by off-nadir measurements. Results of all experiments approve the applicability of spectroscopic measurements for the prediction of distinct biophysical and biochemical parameters in the laboratory and under field conditions, respectively. The estimation of parameters could be conducted to a great extent with high accuracy. An enhanced basis of calibration for the laboratory study and the first field experiment (grass/clover-mixture) yields in improved robustness of calibration models and allows for an extended application of spectroscopic measurement techniques, even under varying conditions. Furthermore, off-nadir measurements inside a canopy yield in higher prediction accuracies, particularly for crops characterised by distinct height increment as observed for maize.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Extensive grassland biomass for bioenergy production has long been subject of scientific research. The possibility of combining nature conservation goals with a profitable management while reducing competition with food production has created a strong interest in this topic. However, the botanical composition will play a key role for solid fuel quality of grassland biomass and will have effects on the combustion process by potentially causing corrosion, emission and slagging. On the other hand, botanical composition will affect anaerobic digestibility and thereby the biogas potential. In this thesis aboveground biomass from the Jena-Experiment plots was harvested in 2008 and 2009 and analysed for the most relevant chemical constituents effecting fuel quality and anaerobic digestibility. Regarding combustion, the following parameters were of main focus: higher heating value (HHV), gross energy yield (GE), ash content, ash softening temperature (AST), K, Ca, Mg, N, Cl and S content. For biogas production the following parameters were investigated: substrate specific methane yield (CH4 sub), area specific methane yield (CH4 area), crude fibre (CF), crude protein (CP), crude lipid (CL) and nitrogen-free extract (NfE). Furthermore, an improvement of the fuel quality was investigated through applying the Integrated generation of solid Fuel and Biogas from Biomass (IFBB) procedure. Through the specific setup of the Jena-Experiment it was possible to outline the changes of these parameters along two diversity gradients: (i) species richness (SR; 1 to 60 species) and (ii) functional group (grasses, legumes, small herbs and tall herbs) presence. This was a novel approach on investigating the bioenergy characteristic of extensive grassland biomass and gave detailed insight in the sward-composition¬ - bioenergy relations such as: (i) the most relevant SR effect was the increase of energy yield for both combustion (annual GE increased by 26% from SR8→16 and by 65% from SR8→60) and anaerobic digestion (annual CH4 area increased by 22% from SR8→16 and by 49% from SR8→60) through a strong interaction of SR with biomass yield; (ii) legumes play a key role for the utilization of grassland biomass for energy production as they increase the energy content of the substrate (HHV and CH4 sub) and the energy yield (GE and CH4 area); (iii) combustion is the conversion technique that will yield the highest energy output but requires an improvement of the solid fuel quality in order to reduce the risk of corrosion, emission and slagging related problems. This was achieved through applying the IFBB-procedure, with reductions in ash (by 23%), N (28%), K (85%), Cl (56%) and S (59%) and equal levels of concentrations along the SR gradient.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Untersuchung des dynamischen aeroelastischen Stabilitätsverhaltens von Flugzeugen erfordert sehr komplexe Rechenmodelle, welche die wesentlichen elastomechanischen und instationären aerodynamischen Eigenschaften der Konstruktion wiedergeben sollen. Bei der Modellbildung müssen einerseits Vereinfachungen und Idealisierungen im Rahmen der Anwendung der Finite Elemente Methode und der aerodynamischen Theorie vorgenommen werden, deren Auswirkungen auf das Simulationsergebnis zu bewerten sind. Andererseits können die strukturdynamischen Kenngrößen durch den Standschwingungsversuch identifiziert werden, wobei die Ergebnisse Messungenauigkeiten enthalten. Für eine robuste Flatteruntersuchung müssen die identifizierten Unwägbarkeiten in allen Prozessschritten über die Festlegung von unteren und oberen Schranken konservativ ermittelt werden, um für alle Flugzustände eine ausreichende Flatterstabilität sicherzustellen. Zu diesem Zweck wird in der vorliegenden Arbeit ein Rechenverfahren entwickelt, welches die klassische Flatteranalyse mit den Methoden der Fuzzy- und Intervallarithmetik verbindet. Dabei werden die Flatterbewegungsgleichungen als parameterabhängiges nichtlineares Eigenwertproblem formuliert. Die Änderung der komplexen Eigenlösung infolge eines veränderlichen Einflussparameters wird mit der Methode der numerischen Fortsetzung ausgehend von der nominalen Startlösung verfolgt. Ein modifizierter Newton-Iterations-Algorithmus kommt zur Anwendung. Als Ergebnis liegen die berechneten aeroelastischen Dämpfungs- und Frequenzverläufe in Abhängigkeit von der Fluggeschwindigkeit mit Unschärfebändern vor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Seit Etablierung der ersten Börsen als Marktplatz für fungible Güter sind Marktteilnehmer und die Wissenschaft bemüht, Erklärungen für das Zustandekommen von Marktpreisen zu finden. Im Laufe der Zeit wurden diverse Modelle entwickelt. Allen voran ist das neoklassische Capital Asset Pricing Modell (CAPM) zu nennen. Die Neoklassik sieht den Akteur an den Finanzmärkten als emotionslosen und streng rationalen Entscheider, dem sog. homo oeconomicus. Psychologische Einflussfaktoren bei der Preisbildung bleiben unbeachtet. Mit der Behavioral Finance hat sich ein neuer Zweig zur Erklärung von Börsenkursen und deren Bewegungen entwickelt. Die Behavioral Finance sprengt die enge Sichtweise der Neoklassik und geht davon aus, dass psychologische Effekte die Entscheidung der Finanzakteure beeinflussen und dabei zu teilweise irrational und emotional geprägten Kursänderungen führen. Eines der Hauptprobleme der Behavioral Finance liegt allerdings in der fehlenden formellen Ermittelbarkeit und Testbarkeit der einzelnen psychologischen Effekte. Anders als beim CAPM, wo die einzelnen Parameter klar mathematisch bestimmbar sind, besteht die Behavioral Finance im Wesentlichen aus psychologischen Definitionen von kursbeeinflussenden Effekten. Die genaue Wirkrichtung und Intensität der Effekte kann, mangels geeigneter Modelle, nicht ermittelt werden. Ziel der Arbeit ist es, eine Abwandlung des CAPM zu ermitteln, die es ermöglicht, neoklassische Annahmen durch die Erkenntnisse des Behavioral Finance zu ergänzen. Mittels der technischen Analyse von Marktpreisen wird versucht die Effekte der Behavioral Finance formell darstellbar und berechenbar zu machen. Von Praktikern wird die technische Analyse dazu verwendet, aus Kursverläufen die Stimmungen und Intentionen der Marktteilnehmer abzuleiten. Eine wissenschaftliche Fundierung ist bislang unterblieben. Ausgehend von den Erkenntnissen der Behavioral Finance und der technischen Analyse wird das klassische CAPM um psychologische Faktoren ergänzt, indem ein Multi-Beta-CAPM (Behavioral-Finance-CAPM) definiert wird, in das psychologisch fundierte Parameter der technischen Analyse einfließen. In Anlehnung an den CAPM-Test von FAMA und FRENCH (1992) werden das klassische CAPM und das Behavioral-Finance-CAPM getestet und der psychologische Erklärungsgehalt der technischen Analyse untersucht. Im Untersuchungszeitraum kann dem Behavioral-Finance-CAPM ein deutlich höherer Erklärungsgehalt gegenüber dem klassischen CAPM zugesprochen werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.