773 resultados para minimization


Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EN]A natural generalization of the classical Moore-Penrose inverse is presented. The so-called S-Moore-Penrose inverse of a m x n complex matrix A, denoted by As, is defined for any linear subspace S of the matrix vector space Cnxm. The S-Moore-Penrose inverse As is characterized using either the singular value decomposition or (for the nonsingular square case) the orthogonal complements with respect to the Frobenius inner product. These results are applied to the preconditioning of linear systems based on Frobenius norm minimization and to the linearly constrained linear least squares problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EN ]The classical optimal (in the Frobenius sense) diagonal preconditioner for large sparse linear systems Ax = b is generalized and improved. The new proposed approximate inverse preconditioner N is based on the minimization of the Frobenius norm of the residual matrix AM − I, where M runs over a certain linear subspace of n × n real matrices, defined by a prescribed sparsity pattern. The number of nonzero entries of the n×n preconditioning matrix N is less than or equal to 2n, and n of them are selected as the optimal positions in each of the n columns of matrix N. All theoretical results are justified in detail…

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stress recovery techniques have been an active research topic in the last few years since, in 1987, Zienkiewicz and Zhu proposed a procedure called Superconvergent Patch Recovery (SPR). This procedure is a last-squares fit of stresses at super-convergent points over patches of elements and it leads to enhanced stress fields that can be used for evaluating finite element discretization errors. In subsequent years, numerous improved forms of this procedure have been proposed attempting to add equilibrium constraints to improve its performances. Later, another superconvergent technique, called Recovery by Equilibrium in Patches (REP), has been proposed. In this case the idea is to impose equilibrium in a weak form over patches and solve the resultant equations by a last-square scheme. In recent years another procedure, based on minimization of complementary energy, called Recovery by Compatibility in Patches (RCP) has been proposed in. This procedure, in many ways, can be seen as the dual form of REP as it substantially imposes compatibility in a weak form among a set of self-equilibrated stress fields. In this thesis a new insight in RCP is presented and the procedure is improved aiming at obtaining convergent second order derivatives of the stress resultants. In order to achieve this result, two different strategies and their combination have been tested. The first one is to consider larger patches in the spirit of what proposed in [4] and the second one is to perform a second recovery on the recovered stresses. Some numerical tests in plane stress conditions are presented, showing the effectiveness of these procedures. Afterwards, a new recovery technique called Last Square Displacements (LSD) is introduced. This new procedure is based on last square interpolation of nodal displacements resulting from the finite element solution. In fact, it has been observed that the major part of the error affecting stress resultants is introduced when shape functions are derived in order to obtain strains components from displacements. This procedure shows to be ultraconvergent and is extremely cost effective, as it needs in input only nodal displacements directly coming from finite element solution, avoiding any other post-processing in order to obtain stress resultants using the traditional method. Numerical tests in plane stress conditions are than presented showing that the procedure is ultraconvergent and leads to convergent first and second order derivatives of stress resultants. In the end, transverse stress profiles reconstruction using First-order Shear Deformation Theory for laminated plates and three dimensional equilibrium equations is presented. It can be seen that accuracy of this reconstruction depends on accuracy of first and second derivatives of stress resultants, which is not guaranteed by most of available low order plate finite elements. RCP and LSD procedures are than used to compute convergent first and second order derivatives of stress resultants ensuring convergence of reconstructed transverse shear and normal stress profiles respectively. Numerical tests are presented and discussed showing the effectiveness of both procedures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The ever-increasing spread of automation in industry puts the electrical engineer in a central role as a promoter of technological development in a sector such as the use of electricity, which is the basis of all the machinery and productive processes. Moreover the spread of drives for motor control and static converters with structures ever more complex, places the electrical engineer to face new challenges whose solution has as critical elements in the implementation of digital control techniques with the requirements of inexpensiveness and efficiency of the final product. The successfully application of solutions using non-conventional static converters awake an increasing interest in science and industry due to the promising opportunities. However, in the same time, new problems emerge whose solution is still under study and debate in the scientific community During the Ph.D. course several themes have been developed that, while obtaining the recent and growing interest of scientific community, have much space for the development of research activity and for industrial applications. The first area of research is related to the control of three phase induction motors with high dynamic performance and the sensorless control in the high speed range. The management of the operation of induction machine without position or speed sensors awakes interest in the industrial world due to the increased reliability and robustness of this solution combined with a lower cost of production and purchase of this technology compared to the others available in the market. During this dissertation control techniques will be proposed which are able to exploit the total dc link voltage and at the same time capable to exploit the maximum torque capability in whole speed range with good dynamic performance. The proposed solution preserves the simplicity of tuning of the regulators. Furthermore, in order to validate the effectiveness of presented solution, it is assessed in terms of performance and complexity and compared to two other algorithm presented in literature. The feasibility of the proposed algorithm is also tested on induction motor drive fed by a matrix converter. Another important research area is connected to the development of technology for vehicular applications. In this field the dynamic performances and the low power consumption is one of most important goals for an effective algorithm. Towards this direction, a control scheme for induction motor that integrates within a coherent solution some of the features that are commonly required to an electric vehicle drive is presented. The main features of the proposed control scheme are the capability to exploit the maximum torque in the whole speed range, a weak dependence on the motor parameters, a good robustness against the variations of the dc-link voltage and, whenever possible, the maximum efficiency. The second part of this dissertation is dedicated to the multi-phase systems. This technology, in fact, is characterized by a number of issues worthy of investigation that make it competitive with other technologies already on the market. Multiphase systems, allow to redistribute power at a higher number of phases, thus making possible the construction of electronic converters which otherwise would be very difficult to achieve due to the limits of present power electronics. Multiphase drives have an intrinsic reliability given by the possibility that a fault of a phase, caused by the possible failure of a component of the converter, can be solved without inefficiency of the machine or application of a pulsating torque. The control of the magnetic field spatial harmonics in the air-gap with order higher than one allows to reduce torque noise and to obtain high torque density motor and multi-motor applications. In one of the next chapters a control scheme able to increase the motor torque by adding a third harmonic component to the air-gap magnetic field will be presented. Above the base speed the control system reduces the motor flux in such a way to ensure the maximum torque capability. The presented analysis considers the drive constrains and shows how these limits modify the motor performance. The multi-motor applications are described by a well-defined number of multiphase machines, having series connected stator windings, with an opportune permutation of the phases these machines can be independently controlled with a single multi-phase inverter. In this dissertation this solution will be presented and an electric drive consisting of two five-phase PM tubular actuators fed by a single five-phase inverter will be presented. Finally the modulation strategies for a multi-phase inverter will be illustrated. The problem of the space vector modulation of multiphase inverters with an odd number of phases is solved in different way. An algorithmic approach and a look-up table solution will be proposed. The inverter output voltage capability will be investigated, showing that the proposed modulation strategy is able to fully exploit the dc input voltage either in sinusoidal or non-sinusoidal operating conditions. All this aspects are considered in the next chapters. In particular, Chapter 1 summarizes the mathematical model of induction motor. The Chapter 2 is a brief state of art on three-phase inverter. Chapter 3 proposes a stator flux vector control for a three- phase induction machine and compares this solution with two other algorithms presented in literature. Furthermore, in the same chapter, a complete electric drive based on matrix converter is presented. In Chapter 4 a control strategy suitable for electric vehicles is illustrated. Chapter 5 describes the mathematical model of multi-phase induction machines whereas chapter 6 analyzes the multi-phase inverter and its modulation strategies. Chapter 7 discusses the minimization of the power losses in IGBT multi-phase inverters with carrier-based pulse width modulation. In Chapter 8 an extended stator flux vector control for a seven-phase induction motor is presented. Chapter 9 concerns the high torque density applications and in Chapter 10 different fault tolerant control strategies are analyzed. Finally, the last chapter presents a positioning multi-motor drive consisting of two PM tubular five-phase actuators fed by a single five-phase inverter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum Phasen- und Grenzflächenverhalten von ternären Systemen des Typs Lösungsmittel/Fällungsmittel/Polymer durchgeführt. Diese Art der Mischungen ist vor allem für die Planung und Durchführung der Membranherstellung von Bedeutung, bei der die genaue Kenntnis des Phasendiagramms und der Grenzflächenspannung unabdingbar ist. Als Polymere dienten Polystyrol sowie Polydimethylsiloxan. Im Fall des Polystyrols kam Butanon-2 als Lösungsmittel zum Einsatz, wobei drei niedrigmolekulare lineare Alkohole als Fällungsmittel verwendet wurden. Für Polydimethylsiloxan eignen sich Toluol als Lösungsmittel und Ethanol als Fällungsmittel. Durch Lichtstreumessungen, Dampfdruckbestimmungen mittels Headspace-Gaschromatographie (VLE-Gleichgewichte) sowie Quellungsgleichgewichten lassen sich die thermodynamischen Eigenschaften der binären Subsysteme charakterisieren. Auf Grundlage der Flory-Huggins-Theorie kann das experimentell bestimmte Phasenverhalten (LLE-Gleichgewichte) in guter Übereinstimmung nach der Methode der Direktminimierung der Gibbs'schen Energie modelliert werden. Zieht man die Ergebnisse der Aktivitätsbestimmung von Dreikomponenten-Mischungen mit in Betracht, so ergeben sich systematische Abweichungen zwischen Experiment und Theorie. Sie können auf die Notwendigkeit ternärer Wechselwirkungsparameter zurückgeführt werden, die ebenfalls durch Modellierung zugänglich sind.Durch die aus den VLE- und LLE-Untersuchungen gewonnenen Ergebnissen kann die sog. Hump-Energie berechnet werden, die ein Maß für die Entmischungstendenz darstellt. Diese Größe eignet sich gut zur Beschreibung von Grenzflächenphänomenen mittels Skalengesetzen. Die für binäre Systeme gefundenen theoretisch fundierten Skalenparameter gelten jedoch nur teilweise. Ein neues Skalengesetz lässt erstmals eine Beschreibung über die gesamte Mischungslücke zu, wobei ein Parameter durch eine gemessene Grenzflächenspannung (zwischen Fällungsmittel/Polymer) ersetzt werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The objective of this dissertation is to develop and test a predictive model for the passive kinematics of human joints based on the energy minimization principle. To pursue this goal, the tibio-talar joint is chosen as a reference joint, for the reduced number of bones involved and its simplicity, if compared with other sinovial joints such as the knee or the wrist. Starting from the knowledge of the articular surface shapes, the spatial trajectory of passive motion is obtained as the envelop of joint configurations that maximize the surfaces congruence. An increase in joint congruence corresponds to an improved capability of distributing an applied load, allowing the joint to attain a better strength with less material. Thus, joint congruence maximization is a simple geometric way to capture the idea of joint energy minimization. The results obtained are validated against in vitro measured trajectories. Preliminary comparison provide strong support for the predictions of the theoretical model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amalgamersatz:Neue Wege zur Herstellung von Dentalkompositen mit geringem Polymerisationsschrumpf auf (Meth-)Acrylat-Basis Aufgrund der ästhetischen und gesundheitlichen Bedenken wird seit Jahrzehnten nach einer Alternative für Amalgam als Zahnfüllmaterial gesucht. Der größte Nachteil von organischen Monomeren liegt in der Volumenkontraktion während der Aushärtung, welche sich negativ auf die Materialeigenschaften auswirkt. Aus diesem Grund war das Hauptziel dieser Arbeit, eine Minimierung des Schrumpfes bei der radikalischen Polymerisation zu erreichen. Dazu wurden verschiedene, zum Teil neue, (Meth-)Acrylate synthetisiert und auf ihre Einsetzbarkeit als Bestandteil von Dentalkompositen geprüft.Um die Volumenkontraktion während der Polymerisation zu minimieren, wurde die Beweglichkeit der polymerisierbaren Gruppe eingeschränkt. Im ersten Teil der Arbeit wurden dazu flüssigkristalline Substanzen eingesetzt. Durch Mischen von flüssigkristallinen Diacrylaten konnte eine Mesophase im gewünschten Temperaturintervall von 25 bis 35 °C erhalten werden. Der Einsatz dieser Flüssigkristalle zeigte einen positiven Einfluss auf den Polymerisationsschrumpf. Zudem wurden neue Monomere synthetisiert, deren Methacrylgruppe in direkter Nachbarschaft zum Mesogen angebunden wurde, um die Stabilität der erhaltenen Polymere zu erhöhen.Im zweiten Teil der Arbeit wurde die Beweglichkeit der polymerisierbaren Gruppe durch eine Fixierung an einem starren Kern reduziert. Als Grundkörper wurden Polyphenole, enzymatisch polymerisierte Phenole und ߖCyclodextrin verwendet. Bei den modifizierten Polyphenolen auf Basis von Gallussäure und 3,5-Dihydroxybenzoesäure konnte eine leichte Reduzierung des Polymerisationsschrumpfes erreicht werden. Mit HRP (Horseradish Peroxidase) katalysierten enzymatisch polymerisierten Phenole konnte dagegen nicht photochemisch vernetzt werden, da diese Oligomere in Lösung gefärbt vorlagen. Zudem zeigten die freien, phenolischen Hydroxygruppen eine sehr geringe Reaktivität. Die besten Ergebnisse wurden mit modifizierten ߖCyclodextrinen als Komponente einer Komposite erreicht. Dabei wurde in einem Fall sogar eine leichte Volumenexpansion während der Polymerisation erzielt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden zwei physikalischeFließexperimente an Vliesstoffen untersucht, die dazu dienensollen, unbekannte hydraulische Parameter des Materials, wiez. B. die Diffusivitäts- oder Leitfähigkeitsfunktion, ausMeßdaten zu identifizieren. Die physikalische undmathematische Modellierung dieser Experimente führt auf einCauchy-Dirichlet-Problem mit freiem Rand für die degeneriertparabolische Richardsgleichung in derSättigungsformulierung, das sogenannte direkte Problem. Ausder Kenntnis des freien Randes dieses Problems soll dernichtlineare Diffusivitätskoeffizient derDifferentialgleichung rekonstruiert werden. Für diesesinverse Problem stellen wir einOutput-Least-Squares-Funktional auf und verwenden zu dessenMinimierung iterative Regularisierungsverfahren wie dasLevenberg-Marquardt-Verfahren und die IRGN-Methode basierendauf einer Parametrisierung des Koeffizientenraumes durchquadratische B-Splines. Für das direkte Problem beweisen wirunter anderem Existenz und Eindeutigkeit der Lösung desCauchy-Dirichlet-Problems sowie die Existenz des freienRandes. Anschließend führen wir formal die Ableitung desfreien Randes nach dem Koeffizienten, die wir für dasnumerische Rekonstruktionsverfahren benötigen, auf einlinear degeneriert parabolisches Randwertproblem zurück.Wir erläutern die numerische Umsetzung und Implementierungunseres Rekonstruktionsverfahrens und stellen abschließendRekonstruktionsergebnisse bezüglich synthetischer Daten vor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis regards the Wireless Sensor Network (WSN), as one of the most important technologies for the twenty-first century and the implementation of different packet correcting erasure codes to cope with the ”bursty” nature of the transmission channel and the possibility of packet losses during the transmission. The limited battery capacity of each sensor node makes the minimization of the power consumption one of the primary concerns in WSN. Considering also the fact that in each sensor node the communication is considerably more expensive than computation, this motivates the core idea to invest computation within the network whenever possible to safe on communication costs. The goal of the research was to evaluate a parameter, for example the Packet Erasure Ratio (PER), that permit to verify the functionality and the behavior of the created network, validate the theoretical expectations and evaluate the convenience of introducing the recovery packet techniques using different types of packet erasure codes in different types of networks. Thus, considering all the constrains of energy consumption in WSN, the topic of this thesis is to try to minimize it by introducing encoding/decoding algorithms in the transmission chain in order to prevent the retransmission of the erased packets through the Packet Erasure Channel and save the energy used for each retransmitted packet. In this way it is possible extend the lifetime of entire network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Über die Sekundärstruktur von LI-Cadherin ist bislang wenig bekannt. Es gibt keine Röntgenanalysen und keine NMR-spektroskopische Untersuchungen. Man kann nur aufgrund der Sequenzhomologien zu den bereits untersuchten klassischen Cadherinen vermuten, daß im LI-Cadherin ähnliche Verhältnisse in der entscheidenden Wechselwirkungsdomäne vorliegen. In Analogie zum E-Cadherin wurde angenommen, daß es im LI-Cadherin eine „homophile Erkennungsregion“ gibt, die in einer typischen beta-Turn-Struktur mit anschließenden Faltblattbereichen vorliegen sollte. Um den Einfluß verschiedener Saccharid-Antigene auf die Turn-Bildung zu untersuchen, wurden im ersten Teil der vorliegenden Arbeit verschiedene Saccharid-Antigen-Bausteine synthetisiert, mit denen dann im zweiten Teil der Arbeit durch sequentielle Festphasensynthese entsprechende Glycopeptidstrukturen aus dieser Region des LI-Cadherins aufgebaut wurden. Zur Synthese sämtlicher Antigen-Bausteine ging man von D-Galactose aus, die über das Galactal und eine Azidonitratisierung in vier Stufen zum Azidobromid umgesetzt wurde. In einer Koenigs-Knorr-Glycosylierung wurde dieses dann auf die Seitenkette eines geschützten Serin-Derivats übertragen. Reduktion und Schutzgruppenmanipulationen lieferten den TN Antigen-Baustein. Ein TN-Antigen-Derivat war Ausgangspunkt für die Synthesen der weiteren Glycosyl-Serin-Bausteine. So ließ sich mittels der Helferich-Glycosylierung der T Antigen-Baustein herstellen, und der STN-Antigen-Baustein wurde durch eine Sialylierungsreaktion und weitere Schutzgruppenmanipulationen erhalten. Da die Route über das T-Antigen-Derivat den Hauptsyntheseweg für die weiteren komplexeren Antigene bildete, wurden verschiedene Schutzgruppenmuster getestet. Darauf aufbauend ließen sich durch verschiede Glycosylierungsreaktionen und Schutzgruppenmanipulationen der komplexe (2->6)-ST-Antigen-Baustein, (2->3)-Sialyl-T- und Glycophorin-Antigen-Baustein synthetisieren. Im nächsten Abschnitt der Doktorarbeit wurden die synthetisierten Saccharid-Antigen-Serin-Konjugate in Festphasen-Glycopeptidsynthesen eingesetzt. Zunächst wurde ein mit dem TN Antigen glycosyliertes Tricosapeptid hergestellt. Mittels NMR-spektroskopischen Untersuchungen und folgenden Energieminimierungsberechnungen konnte eine dreidimensionale Struktur ermittelt werden. Die Peptidsequenz des Turn-bildenden Bereichs wurde für die folgenden Synthesen gewählt. Die Abfolge der einzelnen Reaktionsschritte für die Festphasensynthesen mit den verschiedenen Saccharid-Antigen-Bausteinen war ähnlich. Insgesamt verlief die Festphasen-Glycopeptidsynthese in starker Abhängigkeit vom sterischen Anspruch der Saccharid-Bausteine. Sämtliche so synthetisierten Glycopeptide wurden NMR spektroskopisch charakterisiert und mittels NOE-Experimenten hinsichtlich ihrer Konformation untersucht. Durch diese Bestimmung der räumlichen Protonen-Protonen-Kontakte konnte mittels Rechnungen zur Energieminimierung, basierend auf MM2 Kraftfeldern, eine dreidimensionale Struktur für die Glycopeptide postuliert werden. Sämtliche synthetisierten Glycopeptide weisen eine schleifenartige Konformation auf. Der Einfluß der Saccharid-Antigene ist unterschiedlich, und läßt sich in drei Gruppen einteilen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit dem HFz-Hubbardmodell meinen wir das übliche Hubbardmodell für alle Dimensionen mit der Einschränkung auf die Menge der Slaterdeterminanten, wobei allerdings die Spinwellen dieser Slaterdeterminanten nur Bewegung parallel zur z-Richtung haben. Für dieses Modell mit kleiner Füllung ist es uns gelungen zu beweisen, dass der Ferromagnetismus für große, aber endliche Kopplung entsteht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Flory-Huggins interaction parameters and thermal diffusion coefficients were measured for aqueous biopolymer solutions. Dextran (a water soluble polysaccharide) and bovine serum albumin (BSA, a water soluble protein) were used for this study. The former polymer is representative for chain macromolecules and the latter is for globular macromolecules. The interaction parameters for the systems water/dextran and water/BSA were determined as a function of composition by means of vapor pressure measurements, using a combination of headspace sampling and gas chromatography (HS-GC). A new theoretical approach, accounting for chain connectivity and conformational variability, describes the observed dependencies quantitatively for the system water/dextran and qualitatively for the system water/BSA. The phase diagrams of the ternary systems water/methanol/dextran and water/dextran/BSA were determined via cloud point measurements and modeled by means of the direct minimization of the Gibbs energy using the information on the binary subsystems as input parameters. The thermal diffusion of dextran was studied for aqueous solutions in the temperature range 15 < T < 55 oC. The effects of the addition of urea were also studied. In the absence of urea, the Soret coefficient ST changes its sign as T is varied; it is positive for T > 45.0 oC, but negative for T < 45.0 oC. The positive sign of ST means that the dextran molecules migrate towards the cold side of the fluid; this behavior is typical for polymer solutions. While a negative sign indicates the macromolecules move toward the hot side; this behavior has so far not been observed with any other binary aqueous polymer solutions. The addition of urea to the aqueous solution of dextran increases ST and reduces the inversion temperature. For 2 M urea, the change in the sign of ST is observed at T = 29.7 oC. At higher temperature ST is always positive in the studied temperature range. To rationalize these observations it is assumed that the addition of urea opens hydrogen bonds, similar to that induced by an increase in temperature. For a future extension of the thermodynamic studies to the effects of poly-dispersity, dextran was fractionated by means of a recently developed technique called Continuous Spin Fractionation (CSF). The solvent/precipitant/polymer system used for the thermodynamic studies served as the basis for the fractionation of dextran The starting polymer had a weight average molar mass Mw = 11.1 kg/mol and a molecular non-uniformity U= Mw / Mn -1= 1.0. Seventy grams of dextran were fractionated using water as the solvent and methanol as the precipitant. Five fractionation steps yielded four samples with Mw values between 4.36 and 18.2 kg/mol and U values ranging from 0.28 to 0.48.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis proposes a solution for board cutting in the wood industry with the aim of usage minimization and machine productivity. The problem is dealt with as a Two-Dimensional Cutting Stock Problem and specific Combinatorial Optimization methods are used to solve it considering the features of the real problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the most interesting challenge of the next years will be the Air Space Systems automation. This process will involve different aspects as the Air Traffic Management, the Aircrafts and Airport Operations and the Guidance and Navigation Systems. The use of UAS (Uninhabited Aerial System) for civil mission will be one of the most important steps in this automation process. In civil air space, Air Traffic Controllers (ATC) manage the air traffic ensuring that a minimum separation between the controlled aircrafts is always provided. For this purpose ATCs use several operative avoidance techniques like holding patterns or rerouting. The use of UAS in these context will require the definition of strategies for a common management of piloted and piloted air traffic that allow the UAS to self separate. As a first employment in civil air space we consider a UAS surveillance mission that consists in departing from a ground base, taking pictures over a set of mission targets and coming back to the same ground base. During all mission a set of piloted aircrafts fly in the same airspace and thus the UAS has to self separate using the ATC avoidance as anticipated. We consider two objective, the first consists in the minimization of the air traffic impact over the mission, the second consists in the minimization of the impact of the mission over the air traffic. A particular version of the well known Travelling Salesman Problem (TSP) called Time-Dependant-TSP has been studied to deal with traffic problems in big urban areas. Its basic idea consists in a cost of the route between two clients depending on the period of the day in which it is crossed. Our thesis supports that such idea can be applied to the air traffic too using a convenient time horizon compatible with aircrafts operations. The cost of a UAS sub-route will depend on the air traffic that it will meet starting such route in a specific moment and consequently on the avoidance maneuver that it will use to avoid that conflict. The conflict avoidance is a topic that has been hardly developed in past years using different approaches. In this thesis we purpose a new approach based on the use of ATC operative techniques that makes it possible both to model the UAS problem using a TDTSP framework both to use an Air Traffic Management perspective. Starting from this kind of mission, the problem of the UAS insertion in civil air space is formalized as the UAS Routing Problem (URP). For this reason we introduce a new structure called Conflict Graph that makes it possible to model the avoidance maneuvers and to define the arc cost function of the departing time. Two Integer Linear Programming formulations of the problem are proposed. The first is based on a TDTSP formulation that, unfortunately, is weaker then the TSP formulation. Thus a new formulation based on a TSP variation that uses specific penalty to model the holdings is proposed. Different algorithms are presented: exact algorithms, simple heuristics used as Upper Bounds on the number of time steps used, and metaheuristic algorithms as Genetic Algorithm and Simulated Annealing. Finally an air traffic scenario has been simulated using real air traffic data in order to test our algorithms. Graphic Tools have been used to represent the Milano Linate air space and its air traffic during different days. Such data have been provided by ENAV S.p.A (Italian Agency for Air Navigation Services).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus ein­em Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Glei­chung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrö­din­ger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells be­rück­sich­tigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Glei­chung mit Fokker-Planck Kollisions-Ope­ra­tor hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Max­well­ians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Ge­schwin­dig­keit. Dadurch bleibt die Gleichspannungs-Kurve für die Re­so­nanz-Tunnel­diode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Ge­schwin­dig­keits-Term die Lösung des Systems stabilisiert.